Redes neuronales feed-forward

Slides:



Advertisements
Presentaciones similares
Redes Neuronales de Retropropagación
Advertisements

INTRODUCCION A TECNICAS DE MINERIA DE DATOS
Redes Perceptron Mg. Samuel Oporto Díaz
Introducción a las Redes neuronales
Generación de Números Seudo-Aleatorios
Silvana Arias Carla Espinosa Livia Loaiza INGENIERIA EN SISTEMAS
7. Máquinas Estocásticas
PROYECTO DE GRADO CARLOS STALIN ALVARADO SANCHEZ
MATLAB MAYO 5 DEL 2005 IMPLEMENTACION DE LA FUNCION LOGICA XOR, MEDIANTE UN MODELO NEURONAL Y EL ALGORITMO BACKPROPAGATION EXPOSITORES: ANDRES FELIPE RESTREPO.
Emerson Alvarado Matamoros A40235 Ricardo Alvarado Villalobos A60289
Definición Machine learning traducido al español significa el aprendizaje automático o también aprendizaje de las maquinas. A partir de esto podemos darle.
Redes neuronales2 José Edinson Aedo Cobo Depto. de Ing. Electrónica.
Prof. Ramón Garduño Juárez Modelado Molecular Diseño de Fármacos
MODELO DE REGRESIÓN MÚLTIPLE
Máquinas con Vectores de Soporte - SVM
REDES NEURONALES Dr. Jorge Vivas
EL ALGORITMO ADAPTATIVO MINIMO CUADRADO RECURSIVO RLS
Redes Neuronales. SOMAdendritas AXON Sinapsis Las neuronas recibe entradas de otras neuronas a través de las dendritas y cuando la señal excede un cierto.
APRENDIZAJE WIDROW- HOFF
El Perceptrón  El psicólogo Frank Ronsenblant desarrolló un modelo simple de neurona basado en el modelo de McCulloch y Pitts que utilizaba.
Seminario Científico Internacional 2008 de invierno (SCI 2008i) - Francisco García Fernández. Dr. Ingeniero de Montes - Luis García Esteban. Dr. Ingeniero.
INTRODUCCIÓN A REDES NEURONALES ARTIFICIALES TEORÍA Y APLICACIONES
Introducción Calculabilidad clásica Computación celular
Redes Neuronales Monocapa
El Perceptrón Multicapa
ADALINE — The Adaptive Linear Element
1 Problema no separable linealmente Se busca obtener un algoritmo más general que permita integrar el aprendizaje entre las dos capas.
RECOMENDACIÓN, BÚSQUEDA, RANKING, APRENDIZAJE UNIVERSITAT OBERTA CATALUNYA CARLOTA VIÑA SIRGO.
Redes Neuronales Artificiales Autoorganizadas
Tipos de redes neuronales Perceptrón multicapa Redes de respuesta radial Competitivas Clasificación Mapa topológico.
Cap. 9 Sistemas de Partículas
Introduccion a los Modelos de Redes Neuronales Artificiales Ricardo Alonso Image Source: ww.physiol.ucl.ac.uk/fedwards/ ca1%20neuron.jpg.
Integrantes: Daniel Peña Alfredo Zuñiga
PREVISIÓN DE SERIES TEMPORALES MEDIANTE REDES NEURONALES ARTIFICIALES
Aplicaciones de las Redes Neuronales Artificilaes Dr. Héctor Allende
EL ALGORITMO ADAPTATIVO DE MODULO CONSTANTE CMA
Redes Neuronales Artificiales Tarea 5 BackPropagation I Redes Neuronales Artificiales Tarea 5 BackPropagation I Dr. Juan José Flores Romero División de.
Redes Neuronales Artificiales Tarea 6 BackPropagation II Redes Neuronales Artificiales Tarea 6 BackPropagation II Dr. Juan José Flores Romero División.
Computacion inteligente
Redes Asociativas.
Contenido Identificación de sistemas con redes neuronales Modelado de dinámica temporal de las manchas solares.
Aprendizaje de Agentes II Alberto Reyes Ballesteros Programa ITESM-IIE Doctorado en Ciencias Computacionales.
Perceptrón Multicapa Aplicaciones. Perceptrón Multicapa MLP Latitud Longitud... Altitud Radiación solar Aproximación de funciones MLP Estado de un reactor.
Modelos Computacionales
Redes Competitivas.
Un número aleatorio es aquel obtenido al azar, es decir, que todo número tenga la misma probabilidad de ser elegido y que la elección de uno no dependa.
REDES NEURONALES.
Redes Neuronales Artificiales
Raúl Monroy (de las notas de Jane Hilston)
Aprendizaje Automatizado
Redes Neuronales Artificiales 2 - Aprendizaje
Redes Neuronales Artificiales 3 - Perceptrones Dr. Juan José Flores Romero División de Estudios de Posgrado Facultad de Ingeniería Eléctrica
Introduccion a las Redes de Funciones de Base Radial
REDES NEURONALES ARTIFICIALES TEORÍA Y APLICACIONES
Redes Neuronales BPN - Backpropagation Networks
Redes Neuronales Artificiales Entrenamiento por Retropropagación del Error-Backpropagation Dr. Pedro Ponce Cruz EGIA-MCI.
Algoritmo de Retropropagación. Conclusiones de Retropropagación n 1. Si la neurona j es un nodo de salida es igual al producto de la derivada y la señal.
Identificacion con redes neuronales
REDES NEURONALES TEORÍA MODERNA DE LA FIRMA 2010.
Algoritmo de Retropropagación. Notación n i, j, k son índices de las neuronas en las distintas capas.
Ángel Berihuete Francisco Álvarez
Redes Neuronales.
Perceptrones multicapa y retropropagacion del gradiente (Backpropagation) Hertz, krogh, Palmer, Introduction to the theory of neural computation, Addison.
1 Unidad de Aprendizaje Redes Neuronales Artificiales Supervisadas Red Neuronal Tipo Retropropagación (Backpropagation) Presenta: M en C José Antonio Castillo.
ANÁLISIS DE COVARIANZA En algunas circunstancias, un experimento está afectado por la intervención de un factor muchas veces imprevisible y que no puede.
REDES NEURONALES ARTIFICIALES (SOM - Kohonen)
Redes Neuronales Artificiales (ANN)
Luis Bernardo Montecinos Rubilar Juan Javier Sotomayor Vásquez.
Aplicación de red neuronal “Back Propagation”:
Radial basis functions
Transcripción de la presentación:

Redes neuronales feed-forward El algoritmo Back Propagation From Tai-Wen Yue’s slides http://aimm02.cse.ttu.edu.tw

Contenido Estructura de las redes feed-forward Funciones de activacion Aprendizaje supervisado El algoritmo de aprendizaje back-propagation Factores del aprendizaje

Estructura de las redes feed-forward

Estructura Capa de salida Capas ocultas Capa de entrada x1 x2 xm y1 y2 . . . x1 x2 xm y1 y2 yn Capa de salida Capas ocultas Capa de entrada

Funciones de activacion

Funcion de activacion— Lineal x1 x2 xm wi1 wi2 wim . 

Sigmoide unipolar x1 x2 xm wi1 wi2 wim . 

Sigmoide bipolar x1 x2 xm wi1 wi2 wim . 

Derivada de la sigmoide net 1 0.5 Recordar esto

Aprendizaje supervisado

Aprendizaje supervisado Conjunto de entrenamiento; entrada y target

Aprendizaje supervisado Conjunto de entrenamiento Aprendizaje supervisado . . . x1 x2 xm o1 o2 on d1 d2 dn Capa de salida Capa oculta Capa de entrda

Aprendizaje supervisado Conjunto de entrenamiento Aprendizaje supervisado . . . x1 x2 xm o1 o2 on Suma de los errores al cuadrado d1 d2 dn Objetivo: Minimizar

El algoritmo back-propagation

El algoritmo back-propagation Un procedimiento de aprendizaje que premite entrenar a las redes feedforward multicapa En teoria se puede capturar “cualquier” mapeo de entrada-salida

Descenso por el gradiente El back-propagation es un ejemplo de una tecnica del descenso por el gradiente (w1,w2) (w1+w1,w2 +w2) Para minimizar E, w =  E

El algoritmo back-propagation . . . x1 x2 xm o1 o2 on d1 d2 dn Aprendizaje de las neuronas de salida Aprendizaje de las neuronas ocultas

Aprendizaje de las neuronas de salida . . . j i o1 oj on d1 dj dn wji ? ?

Aprendizaje de las neuronas de salida . . . j i o1 oj on d1 dj dn wji depende de la funcion de activacion

Aprendizaje de las neuronas de salida . . . j i o1 oj on d1 dj dn wji Usando la sigmoide,

Aprendizaje de las neuronas de salida . . . j i o1 oj on d1 dj dn wji Usando la sigmoide,

Aprendizaje de las neuronas de salida . . . j i o1 oj on d1 dj dn wji

Aprendizaje de las neuronas de salida . . . j i o1 oj on d1 dj dn wji ¿Cómo entrenar los pesos de las neuronas de salida?

Aprendizaje en las neuronas ocultas . . . j k i wik wji ? ?

Aprendizaje en las neuronas ocultas . . . j k i wik wji

Aprendizaje en las neuronas ocultas . . . j k i wik wji ?

Aprendizaje en las neuronas ocultas . . . j k i wik wji

Aprendizaje en las neuronas ocultas . . . j k i wik wji

Back Propagation o1 oj on . . . j k i d1 dj dn x1 xm

Back Propagation o1 oj on . . . j k i d1 dj dn x1 xm

Back Propagation o1 oj on . . . j k i d1 dj dn x1 xm

Factores del aprendizaje

Factores del aprendizaje Pesos iniciales Velocidad de aprendizaje () Funciones de costo Momento Reglas de actualizacion Datos de entrenamiento y generalizacion Numero de capas Numero de nodos ocultos

Técnicas prácticas para mejorar Backpropagation Normalizar la entrada Podemos normalizar cada entrada para que tenga media cero y la misma varianza Valores del target Para aplicaciones de reconocimiento de patrones, usar +1 para la clase deseada y -1 para la otra Entrenamiento con el ruido

Técnicas prácticas para mejorar Backpropagation Inicializacion de los pesos Si usamos datos normalizados, deseamos pesos positivos y negativos, asi como una distribución uniforme Aprendizaje uniforme

Técnicas prácticas para mejorar Backpropagation Protocolos de entrenamiento Una época corresponde a la presentación de todos los datos del conjunto de entrenamiento Entrenamiento estocástico Las muestras son elegidas al azar del conjunto de entrenamiento y los pesos se actualizan por cada muestra Entrenamiento por lotes Todas las muestras de entrenamiento (epoca) son presentadas a la red antes de que los pesos sean actualizados

Técnicas prácticas para mejorar Backpropagation Protocolos de entrenamiento Entrenamiento en línea Cada muestra de entrenamiento es presentada una vez y solamente una vez No hay memoria para guardar muestras de entrenamiento

Aumentar la velocidad de convergencia Heuristica Momentum Velocidad de aprendizaje variable Gradiente conjugado Metodos de segundo orden Metodo de Newton Algoritmo de Levenberg-Marquardt

Reconocimiento Tomado de Tai-Wen Yue, “Artificial Neural Networks” course slides Tatung University. Taipei, Taiwan. 5th june 2006