Algoritmo de Retropropagación. Conclusiones de Retropropagación n 1. Si la neurona j es un nodo de salida es igual al producto de la derivada y la señal.

Slides:



Advertisements
Presentaciones similares
Modelos de frecuencia de disparo
Advertisements

CARACTERÍSTICAS DE ANÁLISIS EN UN SISTEMA DE CONTROL:
MOVIMIENTO RECTILINEO UNIFORMEMENTE ACELERADO (M.R.U.A.)
REGRESION LINEAL SIMPLE
TERMINOLOGÍA.
Movimiento Armonico Simple (M.A.S)
Silvana Arias Carla Espinosa Livia Loaiza INGENIERIA EN SISTEMAS
RESPUESTA EN EL TIEMPO Es de interés analizar las dos partes en que puede dividirse normalmente la respuesta en el tiempo de un sistema físico: Respuesta.
TEMA 7 CINEMÁTICA Primera Parte.
Redes neuronales2 José Edinson Aedo Cobo Depto. de Ing. Electrónica.
KRIGING.
Tema 3 Revisión de diversos métodos robustos aplicados en algunos problemas fotogramétricos.
Prof. Ramón Garduño Juárez Modelado Molecular Diseño de Fármacos
Reglas de sintonía de controladores PID
CÁLCULO DIFERENCIAL.
DERIVADAS PARCIALES Gráficas.
La derivada Conforme transcurre el tiempo, vivimos inmersos en un constante cambio. A la par que cambia nuestra edad, cambia nuestro aspecto, nuestras.
Razón de Cambio Promedio Razón de Cambio instantánea (la derivada)
APRENDIZAJE WIDROW- HOFF
El Perceptrón  El psicólogo Frank Ronsenblant desarrolló un modelo simple de neurona basado en el modelo de McCulloch y Pitts que utilizaba.
Inteligencia Artificial (BAIA)  Se propone lograr que las computadoras se comporten de manera que podamos reconocerlas como inteligentes.  Tiene por.
CINEMÁTICA.
Tema 2: Métodos de ajuste
2. DISEÑO DE SEÑALES Y FILTROS
Tests de hipótesis Los tres pasos básicos para testear hipótesis son
Análisis de supervivencia Tema 5 Itziar Aretxaga.
CAMPO ELECTRICO (
CINEMÁTICA Movimiento Rectilíneo Uniformemente Acelerado (MRUA)
TIPOS DE MODELOS DE REGRESIÓN Y SUPUESTOS PARA EL MODELO A
El Perceptrón Multicapa
Ejemplo de aplicación de las ANN
1 Problema no separable linealmente Se busca obtener un algoritmo más general que permita integrar el aprendizaje entre las dos capas.
Tipos de redes neuronales Perceptrón multicapa Redes de respuesta radial Competitivas Clasificación Mapa topológico.
Representación de Señales y Ruido por medio de Series Ortogonales
VARIABLE ALEATORIA Y DISTRIBUCION DE PROBABILIDAD
Sesión 6: Campos de Markov
EL ALGORITMO ADAPTATIVO DE MODULO CONSTANTE CMA
Cap. 2 – Movimiento en Una Dimension
Modelos Computacionales
Redes Competitivas.
Unidad V: Estimación de
el Desplazamiento (Dx)
Guías Modulares de Estudio Cálculo diferencial – Parte B
REDES NEURONALES.
La estimacion de parametros
Introducción La inferencia estadística es el procedimiento mediante el cual se llega a inferencias acerca de una población con base en los resultados obtenidos.
Redes Neuronales Artificiales
Sabemos reconocerlas, y calcularlas como soluciones de sistemas de ecuaciones, o de desigualdades Buscamos métodos de cálculo generales y eficientes Problemas.
Movimiento relativo de la Tierra
CINEMÁTICA Movimiento Rectilíneo Uniformemente Acelerado (MRUA) O
CONTROL E INSTRUMENTACIÓN DE PROCESOS TEMA 2 Control de Procesos
Redes Neuronales BPN - Backpropagation Networks
Redes Neuronales Artificiales Entrenamiento por Retropropagación del Error-Backpropagation Dr. Pedro Ponce Cruz EGIA-MCI.
Redes neuronales feed-forward
Modelos matemáticos y solución de problemas
L A ESTIMACION DE PARAMETROS 1. /31 CONTENIDO Principio fundamental de la estimación de parámetros Un metodo grafico para la estimacion de parametros.
VECTORES MÉTODO DEL TRIÁNGULO
UNIVERSIDAD AUTÓNOMA DEL ESTADO DE HIDALGO Instituto de Ciencias Básicas e Ingenierías Asignatura: Cálculo Vectorial POSICIÓN, VELOCIDAD Y ACELERACIÓN.
DEFINICIÓN DE VECTORES
Algoritmo de Retropropagación. Notación n i, j, k son índices de las neuronas en las distintas capas.
CINEMÁTICA La cinemática estudia el movimiento sin interesarse en qué es lo que lo causa. Se describe de qué manera se mueve una partícula. Para describir.
Telecomunicaciones II
CINEMÁTICA EN UNA DIMENSIÓN
Hector Peña EIE-UCV CAPITULO 7 AJUSTE DE CONTROLADORES El problema dice relación con lo que se entiende por buen control. El criterio mas empleado es la.

DETECCION DE SEÑALES BINARIAS EN RUIDO GAUSSIANO El criterio de toma de decisión fue descrito por la ecuación Un criterio muy usado para escoger el nivel.
OPTIMIZACION DEL DESEMPEÑO DE ERROR
CONTROLADORES PROPORCIONALES, INTEGRALES y DERIVATIVOS
UNIVERSIDAD NACIONAL EXPERIMENTAL DEL TACHIRA UNIDAD DE ADMISION CURSO PROPEDEUTICO ASIGNATURA FISICA Prof. Juan Retamal G.
METODO DE MAXIMA PENDIENTE
Transcripción de la presentación:

Algoritmo de Retropropagación

Conclusiones de Retropropagación n 1. Si la neurona j es un nodo de salida es igual al producto de la derivada y la señal de error. Ambas están asociadas a la neurona j.

Conclusiones de Retropropagación n 2. Si la neurona j es un nodo escondido, n es igual al producto de la derivada asociada n y la suma pesada de las n calculada para las neuronas de la siguiente capa escondida o de salida que se conectan a la neurona j.

Conclusiones de Retropropagación n La corrección aplicada a está definida por la regla delta: n y:

Conclusiones n Cuando el nodo j es de salida: n Cuando el nodo j es escondido:

Conclusiones

Logística n Ya que

Logística n Entonces n y n para una neurona de salida

Logística n Análogamente n y, para una neurona escondida:

Logística n Nótese que es máxima en 0.5 y mínima en o (de (1)). n Para una logística, entonces, los pesos sinápticos se cambian más para aquellas neuronas en donde las señales de la función están en los rangos medios.

Tangente Hiperbólica

n Para la capa de salida

Tangente Hiperbólica n Para una capa escondida:

Momento n El algoritmo de RP “aproxima” la trayectoria en el espacio de los pesos por el método de gradiente máximo. n A una pequeña corresponden pequeños cambios en la trayectoria del descenso y éstos son más suaves. Si es grande los cambios pueden ser inestables (oscilatorios).

Momento n Una forma de incrementar y evitar inestabilidad consiste en modificar la regla delta, de esta manera: n En donde es la constante de momento. Controla el lazo de retroalimentación que se ilustra en la siguiente figura. En ésta es el operador de retardo unitario.

Momento

n Si re-escribimos (2) como una serie de tiempo con un índice t, en donde t va desde el instante 0 hasta el tiempo actual n, tenemos:

Momento n Ya que n y n vemos que

Momento n y podemos escribir, entonces

Momento n Comentarios: –El ajuste actual representa la suma de una serie de tiempo ponderada exponen- cialmente. Para que converja: –Cuando tiene el mismo signo en iteraciones consecutivas, crece en magnitud y se ajusta en cantidades grandes.

Momento –Cuando tiene signos diferentes en iteraciones consecutivas, la suma –disminuye de tamaño y se ajusta en pequeñas cantidades. n El momento acelera el descenso en direcciones de bajada constantes n El momento estabiliza el proceso en direcciones que cambian de sentido

Heurísticos n pequeño es más lento pero permite convergen- cia más profunda n entonces produces una conver- gencia más rápida. n implica que para garantizar convergencia

Heurísticos n Tamaño del conjunto de prueba –N = tamaño de conjunto de entrenamiento –W = número de pesos en la red – (razón de entrenamiento) –W>>1

Heurísticos n Ejemplo: n W=150 n r opt =0.07 n 93% de los datos (140) se usan para entrenamiento n 7% de los datos (10) se usan para prueba

Heurísticos n Función de Activación –Una red RP puede aprender más rápidamente si la sigmoide es antisimétrica: –por ejemplo

Heurísticos n Valores adecuados para a y b (determinados experimentalmente) son: –a= –b=2/3 n Por lo tanto: –a) –b)

Heurísticos n Es decir, en el origen, la pendiente (la ganancia activa) es cercana a la unidad –c) La segunda derivada de es máxima en v=1.

Heurísticos

n Los valores objetivo deben ser elegidos en el rango de la función de activación n La respuesta deseada en la capa L debe de ser desplazada del valor límite. n Por ejemplo:

Heurísticos n El valor medio (sobre el conjunto de entrenamiento) debe ser 0 o pequeño comparado con n Los valores no debe estar correlacionados n Las variables deben escalarse de manera que sus covarianzas sean aproximadamente iguales. –Esto garantiza que las ws se aprendan a las mismas velocidades aproximadamente.

Heurísticos n Las variables deben ser equi-espaciadas en el intervalo de observación –Si esto no es posible, es conveniente usar un spline natural para completar los datos faltantes

Heurísticos ( Inicialización ) n Consideremos una RPR con tanh como función de activación. Si el umbral es 0 : n Sea n y

Heurísticos n Si las entradas no están correlacionadas n Tomemos las de una distribución uniforme con

Heurísticos n Entonces la media y la varianza de son: n y

Heurísticos

n en done m es el número de conexiones sinápticas a una neurona. n Es decir, queremos inicializar de manera que n esté en la transición de la parte lineal y saturada de su función de activación tanh. Para tanh, como se especificó antes, esto se logra (a=1.7159; b=0.6667) haciendo que en n y

Heurísticos n Es decir, deseamos una distribución de la cual las n se tomen con y igual al recíproco del número de conexiones sinápticas

Heurísticos