La descarga está en progreso. Por favor, espere

La descarga está en progreso. Por favor, espere

Redes neuronales feed-forward

Presentaciones similares


Presentación del tema: "Redes neuronales feed-forward"— Transcripción de la presentación:

1 Redes neuronales feed-forward
El algoritmo Back Propagation From Tai-Wen Yue’s slides

2 Contenido Estructura de las redes feed-forward Funciones de activacion
Aprendizaje supervisado El algoritmo de aprendizaje back-propagation Factores del aprendizaje

3 Estructura de las redes feed-forward

4 Estructura Capa de salida Capas ocultas Capa de entrada x1 x2 xm y1 y2
x1 x2 xm y1 y2 yn Capa de salida Capas ocultas Capa de entrada

5 Funciones de activacion

6 Funcion de activacion— Lineal
x1 x2 xm wi1 wi2 wim .

7 Sigmoide unipolar x1 x2 xm wi1 wi2 wim .

8 Sigmoide bipolar x1 x2 xm wi1 wi2 wim .

9 Derivada de la sigmoide
net 1 0.5 Recordar esto

10 Aprendizaje supervisado

11 Aprendizaje supervisado
Conjunto de entrenamiento; entrada y target

12 Aprendizaje supervisado
Conjunto de entrenamiento Aprendizaje supervisado x1 x2 xm o1 o2 on d1 d2 dn Capa de salida Capa oculta Capa de entrda

13 Aprendizaje supervisado
Conjunto de entrenamiento Aprendizaje supervisado x1 x2 xm o1 o2 on Suma de los errores al cuadrado d1 d2 dn Objetivo: Minimizar

14 El algoritmo back-propagation

15 El algoritmo back-propagation
Un procedimiento de aprendizaje que premite entrenar a las redes feedforward multicapa En teoria se puede capturar “cualquier” mapeo de entrada-salida

16 Descenso por el gradiente
El back-propagation es un ejemplo de una tecnica del descenso por el gradiente (w1,w2) (w1+w1,w2 +w2) Para minimizar E, w =  E

17 El algoritmo back-propagation
x1 x2 xm o1 o2 on d1 d2 dn Aprendizaje de las neuronas de salida Aprendizaje de las neuronas ocultas

18 Aprendizaje de las neuronas de salida
j i o1 oj on d1 dj dn wji ? ?

19 Aprendizaje de las neuronas de salida
j i o1 oj on d1 dj dn wji depende de la funcion de activacion

20 Aprendizaje de las neuronas de salida
j i o1 oj on d1 dj dn wji Usando la sigmoide,

21 Aprendizaje de las neuronas de salida
j i o1 oj on d1 dj dn wji Usando la sigmoide,

22 Aprendizaje de las neuronas de salida
j i o1 oj on d1 dj dn wji

23 Aprendizaje de las neuronas de salida
j i o1 oj on d1 dj dn wji ¿Cómo entrenar los pesos de las neuronas de salida?

24 Aprendizaje en las neuronas ocultas
j k i wik wji ? ?

25 Aprendizaje en las neuronas ocultas
j k i wik wji

26 Aprendizaje en las neuronas ocultas
j k i wik wji ?

27 Aprendizaje en las neuronas ocultas
j k i wik wji

28 Aprendizaje en las neuronas ocultas
j k i wik wji

29 Back Propagation o1 oj on j k i d1 dj dn x1 xm

30 Back Propagation o1 oj on j k i d1 dj dn x1 xm

31 Back Propagation o1 oj on j k i d1 dj dn x1 xm

32 Factores del aprendizaje

33 Factores del aprendizaje
Pesos iniciales Velocidad de aprendizaje () Funciones de costo Momento Reglas de actualizacion Datos de entrenamiento y generalizacion Numero de capas Numero de nodos ocultos

34 Técnicas prácticas para mejorar Backpropagation
Normalizar la entrada Podemos normalizar cada entrada para que tenga media cero y la misma varianza Valores del target Para aplicaciones de reconocimiento de patrones, usar +1 para la clase deseada y -1 para la otra Entrenamiento con el ruido

35 Técnicas prácticas para mejorar Backpropagation
Inicializacion de los pesos Si usamos datos normalizados, deseamos pesos positivos y negativos, asi como una distribución uniforme Aprendizaje uniforme

36 Técnicas prácticas para mejorar Backpropagation
Protocolos de entrenamiento Una época corresponde a la presentación de todos los datos del conjunto de entrenamiento Entrenamiento estocástico Las muestras son elegidas al azar del conjunto de entrenamiento y los pesos se actualizan por cada muestra Entrenamiento por lotes Todas las muestras de entrenamiento (epoca) son presentadas a la red antes de que los pesos sean actualizados

37 Técnicas prácticas para mejorar Backpropagation
Protocolos de entrenamiento Entrenamiento en línea Cada muestra de entrenamiento es presentada una vez y solamente una vez No hay memoria para guardar muestras de entrenamiento

38 Aumentar la velocidad de convergencia
Heuristica Momentum Velocidad de aprendizaje variable Gradiente conjugado Metodos de segundo orden Metodo de Newton Algoritmo de Levenberg-Marquardt

39 Reconocimiento Tomado de
Tai-Wen Yue, “Artificial Neural Networks” course slides Tatung University. Taipei, Taiwan. 5th june 2006


Descargar ppt "Redes neuronales feed-forward"

Presentaciones similares


Anuncios Google