La descarga está en progreso. Por favor, espere

La descarga está en progreso. Por favor, espere

Aplicación de red neuronal “Back Propagation”:

Presentaciones similares


Presentación del tema: "Aplicación de red neuronal “Back Propagation”:"— Transcripción de la presentación:

1 Aplicación de red neuronal “Back Propagation”:
Presentan: Figueroa Mendiola Cristopher Daniel Mendoza García Erick Fernando Grupo: 9EM6

2 La red Backpropagation
El funcionamiento de la red backpropagation consiste en el aprendizaje de un conjunto predefinido de pares de entradas-salidas dados. Primero se aplica un patrón de entrada como estímulo para la primera capa de las neuronas de la red. Se va propagando a través de todas las capas superiores hasta generar una salida. Se compara el resultado en las neuronas de salida con la salida que se desea obtener y se calcula un valor de error para cada neurona de salida.

3 La red backpropagation
A continuación, estos errores se transmiten hacia atrás, partiendo de la capa de salida hacia todas las neuronas de la capa intermedia que contribuyan directamente a la salida. Este proceso se repite, capa por capa, hasta que todas las neuronas de la red hayan recibido un error que describa su aportación relativa al error total. Basándose en el valor del error recibido, se reajustan los pesos de conexión de cada neurona, de manera que en la siguiente vez que se presente el mismo patrón, la salida esté más cercana a la deseada.

4 Algoritmo Inicialice los pesos de la red con valores pequeños aleatorios. Presentar un patrón de entrada y especificar la salida deseada. Calcule los valores de ajuste de las unidades de salida en base al error observado. Empezando por el nivel de salida, repita lo siguiente por cada nivel de la red, hasta llegar al primero de los niveles ocultos: Propague los valores de ajuste de regreso al nivel anterior. Actualice los pesos que hay entre los dos niveles. El proceso se repite hasta que el error resulta aceptablemente pequeño para cada uno de los patrones aprendidos.

5 Gradiente descendente
Después que se calcula el error, cada peso se ajusta en proporción al gradiente del error, retropropagado de la salidas a las entradas. El cambio en los pesos reduce el error total

6 Mínimo local Entre mas unidades ocultas se tengan en red, menor es la probabilidad de encontrar un mínimo local

7 Razón de aprendizaje Entre mas grande es la razón de aprendizaje (a) mayor es el cambio en los valores de los pesos cada época, y mas rápido aprende la red. Si la a es demasiado grande, entonces el cambio en los pesos no se aproxima al gradiente descendente, dando como resultado una oscilación en los pesos. Se desea usar una a lo mas grande posible sin llegar a la oscilación.

8 Aplicación de red neuronal “Back Propagation”:
Hoy en día, la delincuencia y la inseguridad se han incrementado en las grandes ciudades, es por eso que son necesarias medidas de seguridad eficientes. Por tal motivo se ha buscado en la tecnología alternativas de seguridad, donde se utilizan los rasgos físicos propios de cada persona, por ejemplo, huellas dactilares, la retina y la voz .

9 De un conjunto de 120 patrones de voz con una longitud de 34 muestras cada patrón, previamente procesados, se llevo a cabo el entrenamiento de la red neuronal tipo “Back Propagation” con una capa oculta y 6 neuronas

10 Se realizo un programa en Matlab, para realizar el calculo de error generado por cada uno de los patrones de prueba. Se enviara una señal de salida cada vez que el patrón entrenado arroje un promedio de error menor a 0.1 La variable que almacena el promedio es la variable suma como lo muestra la siguiente figura

11

12 Una vez que la variable suma almacene un valor menor a 0
Una vez que la variable suma almacene un valor menor a 0.1, o mayor , se enviara por medio del puerto serie del ordenador un carácter al microcontrolador ATMEGA48, como se muestra en la siguiente figura

13 Dentro del microcontrolador se encuentra un programa que simulara la apertura de una puerta. Si el valor fue menor a 0.1 se prendera el led color verde, como lo muestra la figura, en caso contrario , es decir el valor del error promedio es mayor a 0.1 el microcontrolador no realizará ninguna acción.


Descargar ppt "Aplicación de red neuronal “Back Propagation”:"

Presentaciones similares


Anuncios Google