La descarga está en progreso. Por favor, espere

La descarga está en progreso. Por favor, espere

Redes Neuronales Artificiales (ANN)

Presentaciones similares


Presentación del tema: "Redes Neuronales Artificiales (ANN)"— Transcripción de la presentación:

1 Redes Neuronales Artificiales (ANN)

2 Modelos Conexionistas Consideraciones Humanas
Tiempo de Conmutación de una Neurona Número de Neuronas Conexiones por Neurona Tiempo de reconocimiento de escena Computación Paralela ~0.001s ~1010 ~104-5 ~0.1s

3 Modelos Conexionistas Propiedades de ANN
Muchos unidades de conmutación como neuronas Muchas interconexiones pesadas entre unidades Necesidad de procesamiento en paralelo y distribuido Énfasis en el ajuste de pesos automáticamente

4 ¿Cuándo considerar la ANN?
La entrada es discreta con muchas dimensiones o continua (ej. sensores) Salida discreta o continua La salida es un vector de valores Posibles datos ruidosos La forma de la función objetivo es desconocida La compresión del modelo no es importante

5 ¿Cuándo considerar la ANN?
Ejemplos: Reconocimiento de fonemas hablados Clasificación de Imágenes Predicción financiera

6 Proyecto ALVINN

7 Perceptrón Escrita en notación vectorial

8 Superficie de decisión de un Perceptrón
Representa algunas funciones útiles Cuáles serían los pesos para representar Algunas funciones no son representables Ej. Funciones no separables linealmente

9 Superficie de decisión de un Perceptrón

10 Regla de entrenamiento del Perceptrón
donde donde es el valor objetivo es la salida del perceptrón es una constante pequeña (ej. 0.1) llamada learning rate

11 Adaline (Unidad Lineal)

12 Gradiente Descendente
Para entender, considere una unidad linear simple donde Vamos a aprender las wi que minimicen Donde D es el conjunto de ejemplos de entrenamiento

13 Gradiente Descendente
Regla de Aprendizaje

14 Gradiente Descendente

15

16 La regla del perceptron garantiza su convergencia si
Los ejemplos de entrenamiento son linealialmente separables La razón de aprendizaje sea suficientemente pequeña

17 La regla de entrenamiento de la unidad lineal usan el gradiente descendente y garantiza su convergencia a hipótesis con el error cuadrático mínimo Dada una razón de aprendizaje sea suficientemente pequeña Aún cuando los datos de entrenamiento sean ruidosos Aun cuando los datos de entrenamiento no sean separables por H

18 Cálculo del Gradiente Descendente
En modo en lotes Hacer hasta satisfacer Calcular el Gradiente Asignar

19 Cálculo del Gradiente Descendente
En modo incremental Hacer hasta satisfacer Para cada ejemplo de entrenamiento d en D Calcular el Gradiente Asignar

20 El Gradiente Descendente Incremental puede aproximar al Gradiente Descendente en Lotes si η es suficientemente pequeña

21 Redes Neuronales Multicapa de Unidades Sigmoidales

22

23 Unidad Sigmoidal = y

24 Se puede derivar la regla del Gradiente Descendente para entrenar:
Una unidad sigmoidal Redes Neuronales Multicapa  Backpropagation

25 Gradiente del Error de una unidad sigmoidal

26 Pero sabemos que: Asi que:

27


Descargar ppt "Redes Neuronales Artificiales (ANN)"

Presentaciones similares


Anuncios Google