REDES NEURONALES.

Slides:



Advertisements
Presentaciones similares
Redes Neuronales de Retropropagación
Advertisements

INTRODUCCION A TECNICAS DE MINERIA DE DATOS
SISTEMAS INTELIGENTES
Introducción a las Redes neuronales
DATA MINING MINERIA DE DATOS Gersom Costas.
Silvana Arias Carla Espinosa Livia Loaiza INGENIERIA EN SISTEMAS
6. Sistemas Autoorganizados
7. Máquinas Estocásticas
REDES NEURONALES.
MATLAB MAYO 5 DEL 2005 IMPLEMENTACION DE LA FUNCION LOGICA XOR, MEDIANTE UN MODELO NEURONAL Y EL ALGORITMO BACKPROPAGATION EXPOSITORES: ANDRES FELIPE RESTREPO.
Definición Machine learning traducido al español significa el aprendizaje automático o también aprendizaje de las maquinas. A partir de esto podemos darle.
Redes neuronales2 José Edinson Aedo Cobo Depto. de Ing. Electrónica.
Prof. Ramón Garduño Juárez Modelado Molecular Diseño de Fármacos
REDES NEURONALES Dr. Jorge Vivas
APRENDIZAJE WIDROW- HOFF
El Perceptrón  El psicólogo Frank Ronsenblant desarrolló un modelo simple de neurona basado en el modelo de McCulloch y Pitts que utilizaba.
Inteligencia Artificial (BAIA)  Se propone lograr que las computadoras se comporten de manera que podamos reconocerlas como inteligentes.  Tiene por.
REDES NEURONALES ARTIFICIALES
Redes Neuronales Artificiales
Seminario Científico Internacional 2008 de invierno (SCI 2008i) - Francisco García Fernández. Dr. Ingeniero de Montes - Luis García Esteban. Dr. Ingeniero.
Redes Neuronales Adaline y Madaline
INTRODUCCIÓN A REDES NEURONALES ARTIFICIALES TEORÍA Y APLICACIONES
LENGUAS ELECTRÓNICAS.
Diplomado "Gestión de Negocios con Data Warehouse y Data Mining".
Introducción Calculabilidad clásica Computación celular
Redes Neuronales Monocapa
El Perceptrón Multicapa
ADALINE — The Adaptive Linear Element
Ejemplo de aplicación de las ANN
1 Problema no separable linealmente Se busca obtener un algoritmo más general que permita integrar el aprendizaje entre las dos capas.
Un ejemplo ilustrativo
ING. JOSE GUILLERMO GUARNIZO MARIN
Tipos de redes neuronales Perceptrón multicapa Redes de respuesta radial Competitivas Clasificación Mapa topológico.
PREVISIÓN DE SERIES TEMPORALES MEDIANTE REDES NEURONALES ARTIFICIALES
Aplicaciones de las Redes Neuronales Artificilaes Dr. Héctor Allende
Redes Asociativas.
Contenido Identificación de sistemas con redes neuronales Modelado de dinámica temporal de las manchas solares.
Redes Neuronales Artificiales
Aprendizaje de Agentes II Alberto Reyes Ballesteros Programa ITESM-IIE Doctorado en Ciencias Computacionales.
Modelos Computacionales
Redes Competitivas.
Practica 4 supercomputadoras.
Redes Neuronales Artificiales
Aprendizaje Automatizado
Redes Neuronales Artificiales 2 - Aprendizaje
Redes Neuronales Artificiales 3 - Perceptrones Dr. Juan José Flores Romero División de Estudios de Posgrado Facultad de Ingeniería Eléctrica
REDES NEURONALES Introducción Enrique Carlos Segura.
2.1 Breve reseña histórica de la Neurocomputación
REDES NEURONALES ARTIFICIALES TEORÍA Y APLICACIONES
1 Condiciones de extremo Proceso para derivar las condiciones De problema más simple a más complejo Progresión de problemas: Problema sin restricciones.
Redes Neuronales BPN - Backpropagation Networks
Redes Neuronales Artificiales Entrenamiento por Retropropagación del Error-Backpropagation Dr. Pedro Ponce Cruz EGIA-MCI.
Redes neuronales feed-forward
Algoritmo de Retropropagación. Conclusiones de Retropropagación n 1. Si la neurona j es un nodo de salida es igual al producto de la derivada y la señal.
Identificacion con redes neuronales
REDES NEURONALES TEORÍA MODERNA DE LA FIRMA 2010.
Algoritmo de Retropropagación. Notación n i, j, k son índices de las neuronas en las distintas capas.
Portafolio de evidencias
Actualizado agosto 2010 por Guiomar Mora de Reyes
Desde el principio de la humanidad se soñó con el desarrollo de máquinas que puedan imitar la capacidad de aprendizaje del hombre. Actualmente es un desafío.
Ángel Berihuete Francisco Álvarez
Redes Neuronales.
1 Unidad de Aprendizaje Redes Neuronales Artificiales Supervisadas Red Neuronal Tipo Retropropagación (Backpropagation) Presenta: M en C José Antonio Castillo.
Red Adaline B. Widrow & M. Hoff (Adaptive Linear Element)
REDES NEURONALES ARTIFICIALES (SOM - Kohonen)
PONENCIA: III ENCUENTRO VIRTUAL DE DOCENTES CON EXPERIENCIAS DE AULAS DE INNOVACIONES PEDAGOGICAS 2013 “MEGATENDENCIAS EN EDUCACIÓN”
Redes Neuronales Artificiales (ANN)
Unsupervised visual learning of three-dimensional objects using a modular network architecture Ando, Suzuki, Fujita Neural Networks 12 (1999)
Redes Neuronales Artificiales
Redes Neuronales Artificiales Curso Básico Federico Morán
Transcripción de la presentación:

REDES NEURONALES

¿Qué son las Redes Neuronales? Modelos simplificados del sistema nervioso central Están formadas por un elevado número de elementos simples de computación interconectados que trabajan en paralelo

Modelo Neurona Artificial

Modelo Simple Neurona Artificial Modelo matemático (1943) Mc Culloch-Pitts Operación: Suma Ponderada de las Entradas Si la suma supera un umbral, se activa la salida En caso contrario, se inhibe Modelo matemático: Los pesos wij representan la sinapsis que une la neurona j (fuente) con la i (destino)

Breve Historia de las Redes Neuronales 1943 Mc Culloch-Pitts (Primeros Modelos matemáticos) 1949 D. Hebb. Aprendizaje neuronal 1956 Rochester. Primeras simulaciones de redes neuronales 50’-60’ Rosenblatt introduce el Perceptrón 1969 Minsky y Papert publican un libro estudiando los problemas del Perceptrón. COMIENZO DE LA DÉCADA OSCURA 1970 Widrow. Primera aplicación redes neuronales (ADALINE y MADALINE) Regla de Aprendizaje Widrow-Hoff (Mínimos Cuadrados) 1974 Werbos publica el algoritmo de Retropropagación, aunque no se utiliza hasta 1985 (PDP) 1982 Hopfield analiza el comportamiento de la red mediante teoría de Lyapunov

Aplicación de las Redes Neuronales al Control La red puede aproximar cualquier función no lineal continua Son unidades de procesamiento paralelo y distribuido Permite generalizar y adaptarse en tiempo real Puede trabajar con conceptos cuantitativos y cualitativos simultáneamente. Pueden modelar sistemas multivariables

Arquitectura de las Redes Neuronales Funciones continuas utilizadas: Función Escalón Función Umbral Función Rampa Función Sigmoidal Neurona Elemento básico Formada por: Sumador Ponderado Función de Activación continua

Arquitectura de Red En general, las neuronas tienen más de una entrada...

Arquitectura de red O más de una salida ...

Arquitectura de Red O más de una capa....

Arquitectura de Red Capa de Entrada: Capa sensorial Capa Oculta: Procesamiento de Datos Capa de Salida: Respuesta al entorno

Entrenamiento de Redes Entrenamiento = Ajuste de los pesos Entrenamiento supervisado (99% de las aplicaciones neuronales) Entrenamiento no supervisado (el resto) Según el flujo de datos: Redes Unidireccionales (de entrada  salida) Redes Recurrentes (donde  realimentación de la salida a la entrada)

Funcionamiento de las Redes Aprendizaje  Ajuste de pesos Ejecución  Aplicación

Perceptrón Propuesto por Rosenblatt (1961) F(n) es una función umbral (o escalón) Permite clasificar vectores dividiendo el espacio de entrada en dos regiones Sólo puede resolver problemas de separación LINEAL (OR-Exclusivo)

Reglas de Aprendizaje wi(t+1) = wi(t) + Dwi(t) La señal ri es función de (wi,x, di) El incremento de los pesos será: Dwi(t) =  ri [wi(t), x(t), di(t)] x(t) Luego: wi(t+1) = wi(t) + Dwi(t)

Sólo puede Clasificar VECTORES DE ENTRADA LINEALMENTE SEPARABLES Reglas de Aprendizaje Regla de Hebb Regla del Perceptrón: ri = dik-yik Sólo puede Clasificar VECTORES DE ENTRADA LINEALMENTE SEPARABLES

Solución al Problema Or-Exclusivo ¡Utilizar Redes con dos capas!. La Capa de Entrada  Dos Perceptrones Capa de Salida Perceptron adicional Problema: ENTRENAMIENTO

Adaline (Adaptive Linear Neuron) (1959) Widrow Función de Activación LINEAL Sistema de ec. Lineales  solución si los vectores x son LINEALMENTE INDEPENDIENTES Función de COSTE: E(w) minimiza la suma de los cuadrados de los errores. Método de entrenamiento  DESCENSO POR EL GRADIENTE

Regla de Widrow-Hoff  Factor de Aprendizaje Basada en el DESCENSO DE GRADIENTE Si los cambios se hacen individualmente para cada patrón de entrada:  Factor de Aprendizaje

Regla de Aprendizaje Delta Generalización de la regla de Widrow-Hoff para funciones de Activación Continuas Diferenciables Función de Coste: Aplicando descenso de gradiente (BATCH): En identificación/control los pesos se va actualizando al presentar nuevas entradas, x:

Perceptron Multicapa Solución a problemas de clasificación de vectores no separables linealmente Al utilizar funciones de activación no lineales, es posible modelar sistemas no lineales Problema:Entrenamiento 1974 Paul Werbos 1986 Grupo PDP populariza el algoritmo

Algoritmo de Retropropagación Red Multicapa.Función de Activación Diferenciable

Algoritmo de Retropropagación Error Cuadrático: Ajuste de pesos: Relación neuronas 4 y 8 w84  n8  y8  E Aplicando Regla de la Cadena: Definiendo error equivalt.: d8(x) = (d8-y8)F'8(n8(x)) Ajuste Pesos Capa Salida: w84t+1 = w84t + d8y w74t+1 = w74t + d7y4 w64t+1 = w64t + d6y4 w85t+1 = w85t + d8y5 w75t+1 = w75t + d7y5 w65t+1 = w65t + d6y5

Algoritmo Retropropagación (2) Capa Oculta. Conexión neuronas 1 y 4. representa la relación entre y4 y E. Calculando el primer término: Error Equivalente: d4=(d6w64+d7w74+d8w84)F'4(n4)

Algoritmo Retropropagación (3) Agrupando: La variación del peso w41 vendrá dada por: w41t+1 = w41t + d4y1

Algoritmo Retropropagación (4) Aspectos a considerar: Pesos Iniciales. Aleatorios y pequeños Constante de Aprendizaje Función Cuadrática Número de Patrones Tipo de Patrones Número de Capas Número de Neuronas Ocultas Variantes: Término de momento Otras reglas de Actualización basadas en el método de Newton (calculando la matriz Hessiana) w(t) = -E(t)+ w(t-1)