Un ejemplo ilustrativo

Slides:



Advertisements
Presentaciones similares
S ISTEMAS EXPERTOS BASADOS EN R EDES N EURONALES.
Advertisements

Modelos de frecuencia de disparo
Estructura Organizacional
Redes Neuronales de Retropropagación
INTRODUCCION A TECNICAS DE MINERIA DE DATOS
Mariano Alcántara Eduardo
Introducción a las Redes neuronales
Diseño y análisis de algoritmos
DATA MINING MINERIA DE DATOS Gersom Costas.
Silvana Arias Carla Espinosa Livia Loaiza INGENIERIA EN SISTEMAS
EN POS DEL BIENESTAR TOTAL
Mapas Autoorganizados
K-NN: K vecinos más cercanos
MATLAB MAYO 5 DEL 2005 IMPLEMENTACION DE LA FUNCION LOGICA XOR, MEDIANTE UN MODELO NEURONAL Y EL ALGORITMO BACKPROPAGATION EXPOSITORES: ANDRES FELIPE RESTREPO.
Red Neuronal de Contrapropagación
Redes neuronales2 José Edinson Aedo Cobo Depto. de Ing. Electrónica.
Máquinas con Vectores de Soporte - SVM
SESIÓN 1 BIMESTRE C OBJETIVO DE LA CLASE «APRENDER A RECONOCER LOS TIPOS DE IDEAS QUE PUEDEN CONFORMAR UN TEXTO».
Tema V Sistemas no Lineales de Ecuaciones Diferenciales - Estabilidad de Sistemas de EDO Ecuaciones Diferenciales.
RECONOCIMIENTO DE OBJETOS
APRENDIZAJE WIDROW- HOFF
El Perceptrón  El psicólogo Frank Ronsenblant desarrolló un modelo simple de neurona basado en el modelo de McCulloch y Pitts que utilizaba.
REDES NEURONALES ARTIFICIALES
Seminario Científico Internacional 2008 de invierno (SCI 2008i) - Francisco García Fernández. Dr. Ingeniero de Montes - Luis García Esteban. Dr. Ingeniero.
FUNCIONES DE DENSIDAD DE PROBABILIDAD
INTRODUCCIÓN A REDES NEURONALES ARTIFICIALES TEORÍA Y APLICACIONES
TRANSFORMACIONES LINEALES PARA REDES NEURALES ARTIFICIALES
LENGUAS ELECTRÓNICAS.
Introducción Calculabilidad clásica Computación celular
Redes Neuronales Monocapa
SENSOPERCEPCIÓN Temas Aproximación a la igualación al prototipo
Ejemplo de aplicación de las ANN
Image Processing Using FL and ANN Chapter 10 Dr. Mario Chacón DSP & Vision Lab.
1 Problema no separable linealmente Se busca obtener un algoritmo más general que permita integrar el aprendizaje entre las dos capas.
Redes Neuronales Artificiales Autoorganizadas
Tipos de redes neuronales Perceptrón multicapa Redes de respuesta radial Competitivas Clasificación Mapa topológico.
Integrantes: Daniel Peña Alfredo Zuñiga
Aplicaciones de las Redes Neuronales Artificilaes Dr. Héctor Allende
Computacion inteligente
Combinación de Clasificadores
Redes Asociativas.
Redes Neuronales Artificiales
Aprendizaje de Agentes II Alberto Reyes Ballesteros Programa ITESM-IIE Doctorado en Ciencias Computacionales.
Modelos Computacionales
Redes Competitivas.
Recurrencia Programación II de enero de 2009.
REDES NEURONALES.
Redes Neuronales Artificiales
Aprendizaje Automatizado
Redes Neuronales Artificiales 2 - Aprendizaje
Redes Neuronales Artificiales 3 - Perceptrones Dr. Juan José Flores Romero División de Estudios de Posgrado Facultad de Ingeniería Eléctrica
Introduccion a las Redes de Funciones de Base Radial
REDES NEURONALES ARTIFICIALES TEORÍA Y APLICACIONES
8.- Inteligencia artificial
Redes neuronales feed-forward
Algoritmo de Retropropagación. Conclusiones de Retropropagación n 1. Si la neurona j es un nodo de salida es igual al producto de la derivada y la señal.
Comportamiento Organizacional y Aprendizaje estratégico
/47 Sistemas dinamicos Realimentacion de la salida 1.
REDES NEURONALES TEORÍA MODERNA DE LA FIRMA 2010.
Ángel Berihuete Francisco Álvarez
¿Qué función o patrón siguen estas figuras?
Redes Neuronales.
OPTIMIZACION DEL DESEMPEÑO DE ERROR
Realimentacion de la salida
Tópicos en Inteligencia Artificial I Universidad Católica San Pablo.
REDES NEURONALES ARTIFICIALES (SOM - Kohonen)
Redes Neuronales Artificiales (ANN)
Unsupervised visual learning of three-dimensional objects using a modular network architecture Ando, Suzuki, Fujita Neural Networks 12 (1999)
Funciones de Transferencia Presentado por: Niyireth Villabón Molina. Nora Juliana Solanilla V. Jesús Albeiro Agudelo.
PATRON LINEAL.
Transcripción de la presentación:

Un ejemplo ilustrativo Clasificador de frutas (After Hagan, 1994)

No espere entender bien estas redes despues de leer este ejemplo Objetivos Consideraremos un problema de reconocimiento de patrones simple Mostraremos como puede ser resuelto usando tres arquitecturas diferentes de redes neuronales. No espere entender bien estas redes despues de leer este ejemplo Este ejemplo es simplemente para tener una idea de lo que se puede hacer con las redes neuronales Octubre 2006 PIAI Unicauca

Clasificador de manzanas/Bananos Octubre 2006 PIAI Unicauca

Vectores de prototipos Octubre 2006 PIAI Unicauca

Tres aproximaciones Feedforward network Competitive network El perceptron Rosenblatt, 1958 Competitive network La red de Hamming Lippman, 1987 Recurrent network La red de Hopfield Hopfield, 1982 F. Rosenblatt, ÒThe perceptron: A probabilistic model for information storage and organization in the brain,Ó Psycho-logical Review, Vol. 65, pp. 386Ð408, 1958. J. J. Hopfield, ÒNeural networks and physical systems with emergent collective computational abilities,Ó Proceedings of the National Academy of Sciences, Vol. 79, pp. 2554Ð 2558, 1982. Octubre 2006 PIAI Unicauca

Primera aproximacion El preceptron

Perceptron: una sola capa Red Feedforward Perceptron: una sola capa El objetivo del perceptron es clasificar un conjunto de estimulos externos x1, x2, … , xp en una de dos clases C1, C2. Octubre 2006 PIAI Unicauca

Separabilidad lineal del perceptron Red Feedforward Separabilidad lineal del perceptron Vemos que la salida del combinador lineal es (la entrada al hard limiter): Tenemos dos regiones de decision separadas por el hiper-plano definido por Octubre 2006 PIAI Unicauca

Caso de dos entradas Frontera de decision Red Feedforward Octubre 2006 PIAI Unicauca

El problema del reconocer una manzana o un banano ¿Cuanto valen los pesos? Octubre 2006 PIAI Unicauca

El problema del reconocer una manzana o un banano La frontera de decision debe separar los vectores prototipo El vector de pesos es ortogonal a la frontera de decision, y debe apuntar en la direccion del vector que produce una salida de 1 Octubre 2006 PIAI Unicauca

Prueba de la red perceptron Red Feedforward Prueba de la red perceptron Banana: Apple: “Rough” Banana: Octubre 2006 PIAI Unicauca

Segunda aproximacion Red Hamming

Red Hamming Red competitiva It was designed explicitly to solve binary pattern recognition problems (where each element of the input vector has only two possible values Ñ in our example 1 or -1). The number of neurons in the first layer is the same as the number of neurons in the second layer. The objective of the Hamming network is to decide which prototype vector is closest to the input vector. Octubre 2006 PIAI Unicauca

Capa feedforward Red competitiva The feedforward layer performs a correlation, or inner product, between each of the prototype patterns and the input pattern. By adding R to the inner product we guarantee that the outputs of the feedforward layer can never be negative. This is required for proper operation of the recurrent layer. Octubre 2006 PIAI Unicauca

Capa recurrente Red competitiva The recurrent layer of the Hamming network is what is known as a “competitive” layer. The neurons in this layer are initialized with the outputs of the feedforward layer, which indicate the correlation between the prototype patterns and the input vector. Octubre 2006 PIAI Unicauca

Tercera aproximacion Red Hopfield

Red Hopfield ss Recurrent network the Hopfield network actually produces the selected prototype pattern at its output. Octubre 2006 PIAI Unicauca

Conclusiones Las tres aproximaciones de redes pueden clasificar la entrada: Feedforward: la salida se calcula directamente de la entrada, sin realimentacion Competitivas: Se efectua una competicion para determinar cual neurona representa el patron mas cercano a la entrada Recurrentes: La salida de la red es realimentada Octubre 2006 PIAI Unicauca

Conclusiones: Quedan algunas preguntas El preceptron: ¿Si las categorias a reconocer no son linealmente separables, ¿como resolver el problema? Red de Haming: ¿Podemos aprender los pesos de la red de Hamming cuando no conocemos los vectores prototipo? Red de Hopfield ¿Cómo sabemos que la red de Hopfield converge? Octubre 2006 PIAI Unicauca

Conclusiones El ejemplo mostrado es trivial El reconocimiento de patrones es un area de aplicación importante de las NNs Sin embargo, en control las NNs son usadas sobretodo como aproximadores de funciones Octubre 2006 PIAI Unicauca

Fuente M.T. Hagan, H.B. Demuth, and M. Beale, Neural Network Design, PWS Publishing Co., 1995 Octubre 2006 PIAI Unicauca