El Perceptrón  1958 - El psicólogo Frank Ronsenblant desarrolló un modelo simple de neurona basado en el modelo de McCulloch y Pitts que utilizaba.

Slides:



Advertisements
Presentaciones similares
S ISTEMAS EXPERTOS BASADOS EN R EDES N EURONALES.
Advertisements

Jacqueline Chávez Cuzcano
Redes Neuronales de Retropropagación
Introducción a las Redes neuronales
Diseño y análisis de algoritmos
Algoritmos de Minería Los métodos básicos.
MÉTODO SIMPLEX.
Silvana Arias Carla Espinosa Livia Loaiza INGENIERIA EN SISTEMAS
3 Redes Recurrentes y Autónomas
6. Sistemas Autoorganizados
7. Máquinas Estocásticas
Introducción a los Algoritmos
Grupo 4 Matías Melgar Pablo Carbonell
REDES NEURONALES Universidad Autónoma del estado de hidalgo
MATLAB MAYO 5 DEL 2005 IMPLEMENTACION DE LA FUNCION LOGICA XOR, MEDIANTE UN MODELO NEURONAL Y EL ALGORITMO BACKPROPAGATION EXPOSITORES: ANDRES FELIPE RESTREPO.
Unidad académica: Ingenierías
Redes neuronales2 José Edinson Aedo Cobo Depto. de Ing. Electrónica.
Tema 3 Revisión de diversos métodos robustos aplicados en algunos problemas fotogramétricos.
Tema 6: Compresión de imagen
METODO SIMPLEX El método Simplex es un procedimiento iterativo que permite ir mejorando la solución a cada paso. El proceso concluye cuando no es posible.
MÉTODO DE GAUSS-SEIDEL CON RELAJACIÓN
Investigación Operativa
Métodos Iterativos para la resolución de ecuaciones en una variable
RECONOCIMIENTO DE OBJETOS
EL ALGORITMO ADAPTATIVO MINIMO CUADRADO RECURSIVO RLS
ANÁLISIS DISCRIMINANTE
APRENDIZAJE WIDROW- HOFF
Redes Neuronales Artificiales
2- SIMPLEX.
Métodos de Análisis Ingenieril
FUNDAMENTOS DE DATA MINING Y SUS APLICACIONES N. QUEIPO, S. PINTOS COPYRIGHT 2000 CLASIFICACIÓN NO SUPERVISADA.
Redes Neuronales Adaline y Madaline
Tema 2: Métodos de ajuste
RECONOCIMIETO DE PATRONES
Problemes de Viatjants
Método de Steffensen.
Diplomado "Gestión de Negocios con Data Warehouse y Data Mining".
Introducción Calculabilidad clásica Computación celular
Redes Neuronales Monocapa
El Perceptrón Multicapa
ADALINE — The Adaptive Linear Element
Ejemplo de aplicación de las ANN
1 Problema no separable linealmente Se busca obtener un algoritmo más general que permita integrar el aprendizaje entre las dos capas.
SESION Nº 03.  En la práctica de la ingeniería y ciencias, es muy frecuente él tener que resolver ecuaciones del tipo f(x)=0. En estas ecuaciones se.
Redes Asociativas.
Redes Neuronales Artificiales
Aprendizaje de Agentes II Alberto Reyes Ballesteros Programa ITESM-IIE Doctorado en Ciencias Computacionales.
Modelos Computacionales
Redes Competitivas.
REDES NEURONALES.
Redes Neuronales Artificiales
3- PROGRAMACION LINEAL PARAMETRICA
Aprendizaje Automatizado
Redes Neuronales Artificiales 2 - Aprendizaje
2.1 Breve reseña histórica de la Neurocomputación
REDES NEURONALES ARTIFICIALES TEORÍA Y APLICACIONES
6. ANÁLISIS DISCRIMINANTE
Sabemos reconocerlas, y calcularlas como soluciones de sistemas de ecuaciones, o de desigualdades Buscamos métodos de cálculo generales y eficientes Problemas.
Redes Neuronales BPN - Backpropagation Networks
Redes Neuronales Artificiales Entrenamiento por Retropropagación del Error-Backpropagation Dr. Pedro Ponce Cruz EGIA-MCI.
Redes neuronales feed-forward
Algoritmo de Retropropagación. Conclusiones de Retropropagación n 1. Si la neurona j es un nodo de salida es igual al producto de la derivada y la señal.
ALGORITMO QUE ES ??.
REDES NEURONALES TEORÍA MODERNA DE LA FIRMA 2010.
Algoritmo de Retropropagación. Notación n i, j, k son índices de las neuronas en las distintas capas.
DETECCION DE SEÑALES BINARIAS EN RUIDO GAUSSIANO El criterio de toma de decisión fue descrito por la ecuación Un criterio muy usado para escoger el nivel.
Tema 4 : Cálculo de raíces de ecuaciones no lineales
1 Unidad de Aprendizaje Redes Neuronales Artificiales Supervisadas Red Neuronal Tipo Retropropagación (Backpropagation) Presenta: M en C José Antonio Castillo.
REDES NEURONALES ARTIFICIALES (SOM - Kohonen)
Redes Neuronales Artificiales (ANN)
Transcripción de la presentación:

El Perceptrón  1958 - El psicólogo Frank Ronsenblant desarrolló un modelo simple de neurona basado en el modelo de McCulloch y Pitts que utilizaba una regla de aprendizaje basada en la corrección del error: Perceptrón x1 x2 x3 y w1 w2 w3 Función paso o De Heaviside Función signo

¿Qué se pretende con el Perceptrón? Se dispone de la siguiente información: Conjunto de patrones {xk}, k = 1,2,…,p1 , de la clase C1 (zk = 1) Conjunto de patrones {xr}, k = p1+1,...,p , de la clase C2 (zr = -1)  Se pretende que el perceptrón asigne a cada entrada (patrón xk) la salida deseada zk siguiendo un proceso de corrección de error (aprendizaje) para determinar los pesos sinápticos apropiados Regla de aprendizaje del Perceptrón: error tasa de aprendizaje

¿Cómo se modifica el sesgo  ? w1 x1 x2 x3 y  1 w2 w3  1

Algoritmo del Perceptrón Paso 0: Inicialización Inicializar los pesos sinápticos con números aleatorios del intervalo [-1,1]. Ir al paso 1 con k=1 Paso 1: (k-ésima iteración) Calcular Paso 2: Corrección de los pesos sinápticos Si z(k)  y(k) modificar los pesos sinápticos según la expresión: Paso 3: Parada Si no se han modificado los pesos en las últimas p iteraciones, es decir, parar. La red se ha estabilizado. En otro caso, ir al Paso 1 con k=k+1.

Ejemplo  Diseña un perceptrón que implemente la función lógica AND Entradas Salidas (1, 1) 1 (1, 1) 1 (1, 1) 1 (1,1) 1 w1 x1 x2 1 y w2  Paso 0: Inicialización aleatoria w1 = 0.4, w2 =  0.2,  = 0.6,

Diseña un perceptrón que implemente la función lógica AND 0.3 1 1 y 0.2 0.6 Paso 1: Patrón de entrada (1,1): Paso 2: Corrección de los pesos sinápticos y = 1 Elegimos =0.5

Diseña un perceptrón que implemente la función lógica AND 0.7 1 y 0.8 0.4 Paso 1: Patrón de entrada (1,1): Como y =  1 y z = 1 la clasificación es correcta y =  1

Diseña un perceptrón que implemente la función lógica AND 0.7 1 1 y 0.8 0.4 Paso 1: Patrón de entrada (1,1): Paso 2: Corrección de los pesos sinápticos y =  1 Elegimos  = 0.5

Diseña un perceptrón que implemente la función lógica AND 0.3 1 1 y 1.8 0.6 Paso 1: Patrón de entrada (1,1): Paso 2: Corrección de los pesos sinápticos y = 1 Elegimos  = 0.5

Diseña un perceptrón que implemente la función lógica AND 1.3 -1 1 1 y 0.8 0.4 Patrón (1,1): Patrón (1,1): Patrón (1,1): Patrón (1,1):

Diseña un perceptrón que implemente la función lógica AND 1.3 1 1 y 0.8 0.4 Paso 1: Patrón de entrada (1,1): Paso 2: Corrección de los pesos sinápticos y = 1 Elegimos  = 0.5

Diseña un perceptrón que implemente la función lógica AND 0.7 1 1 y 1.8 1.4 Paso 1: Patrón de entrada (1,1): Paso 2: Corrección de los pesos sinápticos y = 1 Elegimos  = 0.5

El Perceptrón  ¿Dado un conjunto cualquiera de patrones de entrenamiento, puede el Perceptrón aprender a clasificarlos correctamente? Problema XOR Entradas Salidas (1, 1) 1 (1, 1) 1 (1, 1) 1 (1,1) 1 (a) (b)

Conjuntos separables linealmente

Teorema de convergencia del Perceptrón Si el conjunto de patrones de entrenamiento con sus salidas deseadas, {x1 ,z1}, {x2 ,z2},…,{ xp ,zp}, es linealmente separable entonces el Perceptrón simple encuentra una solución en un número finito de iteraciones Demostración Como es linealmente separable entonces existen si son de la clase C1 si son de la clase C2

Demostración

Demostración Si 

Tasa de aprendizaje óptima Se trata de elegir de la tasa de aprendizaje  manera que se produzca un mayor decrecimiento del error en cada iteración Error cuadrático en la iteración k+1

Tasa de aprendizaje óptima

Regla de aprendizaje normalizada

Regla de aprendizaje normalizada

Interpretación de la regla de aprendizaje del Perceptrón x  C1 x  C2 Se realizan las correcciones siempre y cuando se producen clasificaciones incorrectas, es decir,

Interpretación de la regla de aprendizaje del Perceptrón Se realizan las correcciones siempre y cuando se producen clasificaciones incorrectas, es decir, a(k) w(k+1) w(k) + 

Deducción de la regla de aprendizaje La regla de aprendizaje del Perceptrón intenta encontrar una solución w* para el siguiente sistema de desigualdades: k =1,2,…,p Función criterio: I(w) es el conjunto de patrones clasificados incorrectamente utilizando el vector de pesos sinápticos w (es decir, (a(k))T w  0). Así, J nunca es negativo y si dicho conjunto es vacío entonces J alcanza su valor mínimo, J = 0. Método del descenso del gradiente

Algoritmo de aprendizaje por lotes del Perceptrón Paso 0: Inicialización Inicializar los pesos sinápticos con números aleatorios del intervalo [-1,1]. Fijar un valor de parada s. Ir al paso 1 con k=1 Paso 1: (k-ésima iteración) Corrección de los pesos sinápticos Paso 2: Parada Si parar. En otro caso, ir al Paso 1 con k=k+1. Paso 1

Una modificación: La Regla del Bolsillo Consiste en tener en cuenta el número de iteraciones consecutivas del algoritmo de perceptrón en las cuales no se ha modificado el vector de pesos sinápticos (para cada uno de los vectores que va generando), es decir, tener en cuenta el número de patrones que se han clasificado correctamente con dicho vector hasta que se ha encontrado el primer patrón que clasifica incorrectamente. Se tiene “guardado en el bolsillo” la mejor solución explorada, es decir, el vector de pesos sinápticos generado que ha conseguido, hasta el momento, el mayor número de iteraciones sin ser modificado. Cuando se encuentra un nuevo vector de pesos sinápticos que consigue un mayor número de clasificaciones correctas consecutivas que el que hay en el bolsillo entonces el vector del bolsillo se reemplaza por este. La solución final viene dada por el vector de pesos sinápticos guardado en el bolsillo.

La ADALINA La ADALINA (también llamada ADALINE), pues corresponde al acrónimo de ADAptive Linear NEuron) o neurona con adaptación lineal que fue introducida por Widrow en 1959. Esta neurona es similar al Perceptrón simple pero utiliza como función de transferencia la función identidad en lugar de la función signo. La salida de la ADALINA es simplemente una función lineal de las entradas (ponderadas con los pesos sinápticos):

La ADALINA Aprendizaje individualizado:

La ADALINA Aprendizaje por lotes:

Neuronas con salida continua: Regla de aprendizaje de Widrow-Hoff x1 x2 x3 y w1 w2 w3

Neuronas con salida continua: Regla de aprendizaje de Widrow-Hoff

Neuronas con salida continua: Regla de aprendizaje de Widrow-Hoff