MATLAB MAYO 5 DEL 2005 IMPLEMENTACION DE LA FUNCION LOGICA XOR, MEDIANTE UN MODELO NEURONAL Y EL ALGORITMO BACKPROPAGATION EXPOSITORES: ANDRES FELIPE RESTREPO.

Slides:



Advertisements
Presentaciones similares
IBD Clase 16.
Advertisements

S ISTEMAS EXPERTOS BASADOS EN R EDES N EURONALES.
Complejidad Computacional
Redes Neuronales de Retropropagación
SISTEMAS INTELIGENTES
Redes Perceptron Mg. Samuel Oporto Díaz
Redes Neuronales Artificiales
Introducción a las Redes neuronales
Silvana Arias Carla Espinosa Livia Loaiza INGENIERIA EN SISTEMAS
Marco Matamala Castro Prof. Guía Luis Zamorano Riquelme
Estructura de Datos Hugo Araya Carrasco Hugo Araya Carrasco.
7. Máquinas Estocásticas
La maquina de Turing La máquina de Turing es una caja negra (tan simple como una máquina de escribir y tan compleja como un ser humano) capaz no sólo de.
Profesor: David Fernando Ramírez Moreno Integrantes:
Emerson Alvarado Matamoros A40235 Ricardo Alvarado Villalobos A60289
Redes neuronales2 José Edinson Aedo Cobo Depto. de Ing. Electrónica.
KRIGING.
Modelado y simulación en Ingeniería Química. Manuel Rodríguez
Prof. Ramón Garduño Juárez Modelado Molecular Diseño de Fármacos
CÁLCULO DIFERENCIAL.
EL ALGORITMO ADAPTATIVO MINIMO CUADRADO RECURSIVO RLS
APRENDIZAJE WIDROW- HOFF
El Perceptrón  El psicólogo Frank Ronsenblant desarrolló un modelo simple de neurona basado en el modelo de McCulloch y Pitts que utilizaba.
REDES NEURONALES ARTIFICIALES
Transferencia de potencia a través de cuadripolos
Seminario Científico Internacional 2008 de invierno (SCI 2008i) - Francisco García Fernández. Dr. Ingeniero de Montes - Luis García Esteban. Dr. Ingeniero.
INCORPORACIÒN DE LA SIMULACIÓN VÍA REDES NEURONALES COMO HERRAMIENTA DE UNIVERSALIZACIÓN DEL CONOCIMIENTO. M.Sc. Manuel Marqués 1*, Dr. Luis Oliva Ruiz.
INTRODUCCIÓN A REDES NEURONALES ARTIFICIALES TEORÍA Y APLICACIONES
CONFERENCIA FILTRO LINEAL Y RED DE REGRESIÓN GENERALIZADA: Arquitecturas Neuronales Empleadas en la Aplicación del Censo Poblacional JAIRO PERTUZ CAMPO.
Introducción Calculabilidad clásica Computación celular
Redes Neuronales Monocapa
El Perceptrón Multicapa
1 Problema no separable linealmente Se busca obtener un algoritmo más general que permita integrar el aprendizaje entre las dos capas.
Un ejemplo ilustrativo
Análisis de Algoritmos
ING. JOSE GUILLERMO GUARNIZO MARIN
Tipos de redes neuronales Perceptrón multicapa Redes de respuesta radial Competitivas Clasificación Mapa topológico.
Integrantes: Daniel Peña Alfredo Zuñiga
PREVISIÓN DE SERIES TEMPORALES MEDIANTE REDES NEURONALES ARTIFICIALES
Aplicaciones de las Redes Neuronales Artificilaes Dr. Héctor Allende
Redes Neuronales Artificiales Tarea 5 BackPropagation I Redes Neuronales Artificiales Tarea 5 BackPropagation I Dr. Juan José Flores Romero División de.
Contenido Identificación de sistemas con redes neuronales Modelado de dinámica temporal de las manchas solares.
Aprendizaje de Agentes II Alberto Reyes Ballesteros Programa ITESM-IIE Doctorado en Ciencias Computacionales.
Modelos Computacionales
Redes Competitivas.
REDES NEURONALES.
Practica 4 supercomputadoras.
Redes Neuronales Artificiales
Aprendizaje Automatizado
Redes Neuronales Artificiales 2 - Aprendizaje
Redes Neuronales Artificiales 3 - Perceptrones Dr. Juan José Flores Romero División de Estudios de Posgrado Facultad de Ingeniería Eléctrica
Introduccion a las Redes de Funciones de Base Radial
Previo a la obtención del Título de:
Sabemos reconocerlas, y calcularlas como soluciones de sistemas de ecuaciones, o de desigualdades Buscamos métodos de cálculo generales y eficientes Problemas.
Redes Neuronales BPN - Backpropagation Networks
Redes Neuronales Artificiales Entrenamiento por Retropropagación del Error-Backpropagation Dr. Pedro Ponce Cruz EGIA-MCI.
Redes neuronales feed-forward
Algoritmo de Retropropagación. Conclusiones de Retropropagación n 1. Si la neurona j es un nodo de salida es igual al producto de la derivada y la señal.
Identificacion con redes neuronales
Sesión 6: Redes Bayesianas - Inferencia
Algoritmo de Retropropagación. Notación n i, j, k son índices de las neuronas en las distintas capas.
Método de mínimos cuadrados
Introducción a los TADs
Ángel Berihuete Francisco Álvarez
Redes Neuronales.
1 Unidad de Aprendizaje Redes Neuronales Artificiales Supervisadas Red Neuronal Tipo Retropropagación (Backpropagation) Presenta: M en C José Antonio Castillo.
Redes Neuronales Perceptron, Backpropagation, Adaline, Hopfield.
Redes Neuronales Artificiales (ANN)
Luis Bernardo Montecinos Rubilar Juan Javier Sotomayor Vásquez.
Instituto de Protecciones de Sistemas Eléctricos de Potencia Universidad Nacional de Río Cuarto Calculo de H (Matriz Jacobiana) Potencia Activa inyectada.
Transcripción de la presentación:

MATLAB MAYO 5 DEL 2005 IMPLEMENTACION DE LA FUNCION LOGICA XOR, MEDIANTE UN MODELO NEURONAL Y EL ALGORITMO BACKPROPAGATION EXPOSITORES: ANDRES FELIPE RESTREPO LONDOÑO BIBIANA JANETH GALLEGO MORA FACULTAD DE INGENIERIA DE SISTEMAS DIRECTOR: JAIRO PERTUZ CAMPO UNIVERSIDAD DE MEDELLIN MEDELLIN, MAYO DE 2005

OBJETIVO Ilustrar el proceso de entrenamiento de una red neuronal con el algoritmo Backpropagation, mediante la implementación de la función lógica XOR. Demostrar que la velocidad de entrenamiento para una representación bipolar es mucho más rápida que una representación binaria

REDES FEEDFORWARD Las interacciones son siempre hacia adelante Se suele hablar de: Redes de una sola capa (cuando no hay capas ocultas), Ejemplo: El perceptrón simple

REDES FEEDFORWARD Redes de múltiples capas (cuando hay capas ocultas): Ejemplos: el perceptrón multicapa

BACKPROPAGATION Procedimiento para encontrar el vector gradiente de una función error asociada a la salida de la red con respecto a los parámetros de la misma. El nombre backpropagation surge pues del cálculo que se hace en el sentido inverso de la red, propagándose desde los nodos de salida hacia los nodos de entrada Esto permite poder aplicar a posteriori alguno de los muchos métodos de optimización con gradiente para obtener el comportamiento deseado de la red

El Backpropagation Standard es el algoritmo de descenso del gradiente donde los pesos de la red son movidos a lo largo de la dirección negativa del gradiente (Es donde se minimiza para obtener T). Existen varias técnicas como lo son: El algoritmo del gradiente conjugado. El algoritmo de Newton. En ultima instancia lo que busca este algoritmo del Backporgation es el entrenamiento de Redes Neuronales Feedforward, con las cuales podemos resolver problemas específicos como: Aproximación de Funciones, clasificación, asociación de vectores, etc.

ELEMENTOS ESENCIALES DE LA RED ENTRADAS: P CONEXIONES SINAPTICAS PONDERADAS: Matriz peso (W) BIAS: Sesgo (b) SUMADOR: + Las funciones de transferencia utilizadas para este algoritmo son: Log – sigmoid transfer function. Tan - sigmoid transfer function. Linear transfer function. SALIDA DE LA RED: a SALIDA DESEADA: T Cuando hablamos de gradiente de una función, como requisito ésta debe ser derivable, por ende estas funciones antes mencionadas tienen derivada. El proceso de entrenamiento: Agrupa los datos, entrena la red y posteriormente permite simular la respuesta de la red para nuevas entradas.

Representación Binaria Representación Bipolar XOR 1 P1 P2 XOR -1 1

>> net.trainParam.show = 25; >> net.trainParam.lr =0.02; EJERCICIO 1 DE APLICACIÓN CON BACKPROPAGATION UTILIZAMOS COMPUERTA LOGICA XOR, ENTRADA BINARIA Y SALIDA BINARIA: 2 - 4 - 1 “Entrada y T deseado >> p= [0 0 1 1; 0 1 0 1]; >> T= [0 1 1 0]; “Creacion de la red >> net = newff (minmax (p), [4 1], {‘logsig',‘logsig'}, 'trainlm'); “Entrenamiento >> net.trainParam.show = 25; >> net.trainParam.lr =0.02; >> net.trainParam.epochs = 400; >> net.trainParam.goal = 1e-8; >> [net,tr] = train(net,p,T); “Simulación >> a = sim (net,p); >> e = T -round(a)

EJERCICIO 2 DE APLICACIÓN CON BACKPROPAGATION UTILIZAMOS COMPUERTA LOGICA XOR, ENTRADA BIPOLAR Y SALIDA BIPOLAR: 2 - 4 - 1: “Entradas y T deseado >> p= [-1 -1 1 1; -1 1 -1 1]; >> T= [-1 1 1 -1]; “ Creación de la red >> net = newff (minmax (p), [4 1], {'tansig','tansig'}, 'trainlm'); “Entrenamiento >> net.trainParam.show = 25; >> net.trainParam.lr =0.02; >> net.trainParam.epochs = 400; >> net.trainParam.goal = 1e-8; >> [net,tr] = train(net,p,T); “Simulación >> a = sim (net,p); >> e = T -round(a)

COMENTARIOS FINALES La arquitectura neuronal (Red Feedforward) y el algoritmo de entrenamiento empleado (Backpropagation), resultaron ser muy eficientes en la ejecución del problema planteado. Pudimos comprobar que en esta aplicación, la velocidad de entrenamiento correspondiente a la representación bipolar, resulta ser mucho más rápida que la correspondiente a la representación binaria.