Aplicación de red neuronal “Back Propagation”:

Slides:



Advertisements
Presentaciones similares
Redes neuronales2 José Edinson Aedo Cobo Depto. de Ing. Electrónica.
Advertisements

1 Problema no separable linealmente Se busca obtener un algoritmo más general que permita integrar el aprendizaje entre las dos capas.
Tipos de redes neuronales Perceptrón multicapa Redes de respuesta radial Competitivas Clasificación Mapa topológico.
Integrantes: Daniel Peña Alfredo Zuñiga
Aplicaciones de las Redes Neuronales Artificilaes Dr. Héctor Allende
Redes Neuronales Artificiales Tarea 5 BackPropagation I Redes Neuronales Artificiales Tarea 5 BackPropagation I Dr. Juan José Flores Romero División de.
Redes Neuronales Artificiales Tarea 6 BackPropagation II Redes Neuronales Artificiales Tarea 6 BackPropagation II Dr. Juan José Flores Romero División.
Aprendizaje de Agentes II Alberto Reyes Ballesteros Programa ITESM-IIE Doctorado en Ciencias Computacionales.
REDES NEURONALES.
Aprendizaje Automatizado
Redes Neuronales BPN - Backpropagation Networks
Redes Neuronales Artificiales Entrenamiento por Retropropagación del Error-Backpropagation Dr. Pedro Ponce Cruz EGIA-MCI.
Redes neuronales feed-forward
Algoritmo de Retropropagación. Conclusiones de Retropropagación n 1. Si la neurona j es un nodo de salida es igual al producto de la derivada y la señal.
Algoritmo de Retropropagación. Notación n i, j, k son índices de las neuronas en las distintas capas.
Redes Neuronales Artificiales (ANN)

PRUEBA CHI-CUADRADO UNIDAD 2: ESTADÍSTICA.
Medidas de centralización:  Media aritmética, mediana y moda para: i) listas de datos ii) datos agrupados en una tabla de frecuencia iii) datos agrupados.
Tipos de errores Error de escala Error sistemático Error aleatorio Error total.
República Bolivariana de Venezuela Instituto Universitario Politécnico “Santiago Mariño" Estadísticas I - OV Estadística Profesor : Bachiller: Pedro Beltrán.
TUTORIA 1 Lógica para la Computación TUTORIA 1 Facultad de Ciencias Naturales y Matemáticas.
Estadística.
TRANSISTORES BIPOLARES
Solución de problemas y toma de decisiones administrativas
 Los datos que a continuación se presentan corresponden al número de llamadas telefónicas que un grupo de personas realiza durante el día. 0, 1, 2, 4,
Instituto Nacional de Estadística y Geografía
Introducción La optimización trata de buscar el punto óptimo de una función objetivo cumpliendo con una serie de restricciones. El proceso de optimización.
“Bootstrap” Jaime Mojica Cuevas
Comparación de Modelos Neuronales Utilizadas en la Toma de Decisiones
Guía de Ejercicios 3: D&AA Universidad Viña del Mar 30/9/2002
SOM: Modelos de mapas Auto-organizativos
TEMA 7 HARDWARE TECNOLOGÍA 3º ESO ADELA GINER LARRAURI.
¿Cuándo usar esta distribución?
Unidad 6. Capítulo IV. Puntos ordinarios y puntos singulares.
Algunas consideraciones con Redes Neuronales
CARACTERÍSTICAS ESTADÍSTICAS
estadistica
Etapas de la simulación de procesos
REGRESIÓN LINEAL SIMPLE
INTRODUCCIÓN A LAS REDES NEURONALES
Simulador modular secuencial basado en ecuaciones
Proceso de comunicación de datos
¿Qué es un sistema informático?
Algoritmos geneticos. Función de propagación o ponderación Esta función se encarga de transformar las diferentes entradas que provienen de la sinapsis.
Hipervínculos scratch
ESTRUCTURA DEL CONTROLADOR PID
CAPACIDAD DE DETECCION Y CORRECCION DE ERRORES
UNIDAD 3. Autómatas Finitos 3.3 Conversión de un AFND a AFD Presentan: Anahi Avila Valdez Erika F. Palma Tzidejhe Docente: Adrián Chávez 1.
Teleinformática. Elaborado por: Daniela Sánchez Téllez presentado a: Jesús Emiro Vega Universidad Nacional Abierta y a Distancia. Cead Acacias 2016.
 La minería de datos o exploración de datos (es la etapa de análisis de "Knowledge Discovery in Databases" o KDD) es un campo de la estadística y las.
DISEÑO Y ANALISIS DE EXPERIMENTOS
UNIVERSIDAD "ALONSO DE OJEDA"
Sistemas Numéricos 1. Introducción 2. Sistema de Numeración Decimal
Metodología de la Programación
DISEÑO Y ANALISIS DE EXPERIMENTOS
Medidas de dispersión Por E. Skerrett.
Dr. Carlomagno Araya Alpízar
Definición de solución (especificadores)
estadistica 2 conceptos
Redes Auto-organizadas
Sistema Automático de Defensa.
Diego Hernández R Algoritmos Diego Hernández R
Diego Hernández R Algoritmos Diego Hernández R
CAPA FÍSICA DEL MODELO OSI La capa física: Señales de comunicación.
NOMBRE : Daniel Lima Cachi DOCENTE : ING. HENRY GOMEZ DEL CARPIO CURSO : CIRCUITOS ELECTRONICOS 3.
CAPACIDAD DE DETECCION Y CORRECCION DE ERRORES
Interpolación. Dados n + 1 puntos, hay uno y sólo un polinomio de grado* n que pasa a través de todos los puntos. Por ejemplo, hay sólo una línea recta.
DISEÑO Y ANALISIS DE EXPERIMENTOS
UNIVERSIDAD AÚTONOMA DE SINALOA “Facultad de Informática Culiacán”
Transcripción de la presentación:

Aplicación de red neuronal “Back Propagation”: Presentan: Figueroa Mendiola Cristopher Daniel Mendoza García Erick Fernando Grupo: 9EM6

La red Backpropagation El funcionamiento de la red backpropagation consiste en el aprendizaje de un conjunto predefinido de pares de entradas-salidas dados. Primero se aplica un patrón de entrada como estímulo para la primera capa de las neuronas de la red. Se va propagando a través de todas las capas superiores hasta generar una salida. Se compara el resultado en las neuronas de salida con la salida que se desea obtener y se calcula un valor de error para cada neurona de salida.

La red backpropagation A continuación, estos errores se transmiten hacia atrás, partiendo de la capa de salida hacia todas las neuronas de la capa intermedia que contribuyan directamente a la salida. Este proceso se repite, capa por capa, hasta que todas las neuronas de la red hayan recibido un error que describa su aportación relativa al error total. Basándose en el valor del error recibido, se reajustan los pesos de conexión de cada neurona, de manera que en la siguiente vez que se presente el mismo patrón, la salida esté más cercana a la deseada.

Algoritmo Inicialice los pesos de la red con valores pequeños aleatorios. Presentar un patrón de entrada y especificar la salida deseada. Calcule los valores de ajuste de las unidades de salida en base al error observado. Empezando por el nivel de salida, repita lo siguiente por cada nivel de la red, hasta llegar al primero de los niveles ocultos: Propague los valores de ajuste de regreso al nivel anterior. Actualice los pesos que hay entre los dos niveles. El proceso se repite hasta que el error resulta aceptablemente pequeño para cada uno de los patrones aprendidos.

Gradiente descendente Después que se calcula el error, cada peso se ajusta en proporción al gradiente del error, retropropagado de la salidas a las entradas. El cambio en los pesos reduce el error total

Mínimo local Entre mas unidades ocultas se tengan en red, menor es la probabilidad de encontrar un mínimo local

Razón de aprendizaje Entre mas grande es la razón de aprendizaje (a) mayor es el cambio en los valores de los pesos cada época, y mas rápido aprende la red. Si la a es demasiado grande, entonces el cambio en los pesos no se aproxima al gradiente descendente, dando como resultado una oscilación en los pesos. Se desea usar una a lo mas grande posible sin llegar a la oscilación.

Aplicación de red neuronal “Back Propagation”: Hoy en día, la delincuencia y la inseguridad se han incrementado en las grandes ciudades, es por eso que son necesarias medidas de seguridad eficientes. Por tal motivo se ha buscado en la tecnología alternativas de seguridad, donde se utilizan los rasgos físicos propios de cada persona, por ejemplo, huellas dactilares, la retina y la voz .

De un conjunto de 120 patrones de voz con una longitud de 34 muestras cada patrón, previamente procesados, se llevo a cabo el entrenamiento de la red neuronal tipo “Back Propagation” con una capa oculta y 6 neuronas

Se realizo un programa en Matlab, para realizar el calculo de error generado por cada uno de los patrones de prueba. Se enviara una señal de salida cada vez que el patrón entrenado arroje un promedio de error menor a 0.1 La variable que almacena el promedio es la variable suma como lo muestra la siguiente figura

Una vez que la variable suma almacene un valor menor a 0 Una vez que la variable suma almacene un valor menor a 0.1, o mayor , se enviara por medio del puerto serie del ordenador un carácter al microcontrolador ATMEGA48, como se muestra en la siguiente figura

Dentro del microcontrolador se encuentra un programa que simulara la apertura de una puerta. Si el valor fue menor a 0.1 se prendera el led color verde, como lo muestra la figura, en caso contrario , es decir el valor del error promedio es mayor a 0.1 el microcontrolador no realizará ninguna acción.