6. Sistemas Autoorganizados

Slides:



Advertisements
Presentaciones similares
Dispersión clásica de partículas cargadas
Advertisements

Introducción a las Redes neuronales
DATA MINING MINERIA DE DATOS Gersom Costas.
PROCESAMIENTO DE IMAGENES
Silvana Arias Carla Espinosa Livia Loaiza INGENIERIA EN SISTEMAS
3 Redes Recurrentes y Autónomas
TEMA 7 CINEMÁTICA Primera Parte.
Mapas Autoorganizados
7. Máquinas Estocásticas
Grupo 4 Matías Melgar Pablo Carbonell
Autora: Carmen Alonso Montes Director: Manuel González Penedo
Códigos Detectores y Correctores de Errores
Redes basadas en competición
Redes neuronales2 José Edinson Aedo Cobo Depto. de Ing. Electrónica.
Tema 3 Revisión de diversos métodos robustos aplicados en algunos problemas fotogramétricos.
Representación en espacio de estado
RECONOCIMIENTO DE OBJETOS
Clustering (Agrupamiento)
APRENDIZAJE WIDROW- HOFF
El Perceptrón  El psicólogo Frank Ronsenblant desarrolló un modelo simple de neurona basado en el modelo de McCulloch y Pitts que utilizaba.
ANÁLISIS DE CORRESPONDENCIAS SIMPLE
RECONOCIMIETO DE PATRONES
GRAFOS HUGO ARAYA CARRASCO.
FUNCIONES DE DENSIDAD DE PROBABILIDAD
PROPIEDADES DE LAS REDES DE PETRI
Diplomado "Gestión de Negocios con Data Warehouse y Data Mining".
Introducción Calculabilidad clásica Computación celular
Redes Neuronales Monocapa
El Perceptrón Multicapa
Especificación de Consultas M
ANÁLISIS DE CONGLOMERADOS
Ejemplo de aplicación de las ANN
1 Problema no separable linealmente Se busca obtener un algoritmo más general que permita integrar el aprendizaje entre las dos capas.
La segmentación de imágenes se ocupa de descomponer una imagen en sus partes constituyentes, es decir, los objetos de interés y el fondo, basándose en.
Redes Neuronales Artificiales Autoorganizadas

Tipos de redes neuronales Perceptrón multicapa Redes de respuesta radial Competitivas Clasificación Mapa topológico.
3. Funciones discriminantes para la f.d.p normal.
Sesión 6: Campos de Markov
DEFINICIONES Sea (P) el siguiente problema de programación lineal:
(Organización y Manejo de Archivos)
Combinación de Clasificadores
Redes Asociativas.
Capitulo 3 Segmentación.
MÉTODO DE PIXELES DE BORDE
Física Lic.Sujey Herrera Ramos
Modelos Computacionales
Redes Competitivas.
REDES NEURONALES.
3. Análisis de Correspondencias Simples
Redes Neuronales Artificiales
Aprendizaje Automatizado
Cúmulo de Partículas (Particle Swarm Optimization: PSO) Por: Antonio H. Escobar Zuluaga Universidad Tecnológica de Pereira - Colombia 2014 Optimización.
Redes Neuronales Artificiales 2 - Aprendizaje
Una introducción a la computación evolutiva
Una aproximación a la visión
REDES NEURONALES ARTIFICIALES TEORÍA Y APLICACIONES
Capítulo 1. Conceptos básicos de la Estadística
Aprendizaje No Supervisado y Redes de Kohonen
Sistemas de Control y Proceso Adaptativo
Redes Neuronales BPN - Backpropagation Networks
Redes Neuronales Artificiales Entrenamiento por Retropropagación del Error-Backpropagation Dr. Pedro Ponce Cruz EGIA-MCI.
Sesión 6: Campos de Markov. © L.E. Sucar: PGM - CAM2 Campos de Markov Introducción –Modelo de Ising Representación –Tipos de Modelos –Redes de Markov.
Escalamiento Multidimensional No-Métrico. Rasgos generales Busca las mejores posiciones de n objetos en un espacio de k dimensiones que se asemejen más.
REDES NEURONALES TEORÍA MODERNA DE LA FIRMA 2010.
Taller: Inteligencia Computacional
ESCALAMIENTO MULTIDIMENSIONAL
Ángel Berihuete Francisco Álvarez
REDES NEURONALES ARTIFICIALES (SOM - Kohonen)
Transcripción de la presentación:

6. Sistemas Autoorganizados La idea del aprendizaje competitivo está ya trazada en los primeros trabajos de von der Malsburg (1973) sobre la autoorganización de las células nerviosas de la corteza cerebral. En 1975, Fukushima propuso el cognitron que es una red competitiva multicapa y autoorganizada. Willshaw y von der Malsburg (1976) trabajaron sobre la formación de las conexiones neuronales mediante autoorganización y Grossberg (1972, 1976) sobre la clasificación adaptativa de patrones. Rumelhart y Zisper (1985) especificaron los tres elementos básicos de una regla de aprendizaje competitiva: Un conjunto de neuronas (unidades de proceso) que se activan o no en respuesta a un conjunto de patrones de entrada (estímulos) y que difieren en los valores de un conjunto de pesos sinápticos específico de cada neurona. Un límite impuesto sobre la “fuerza” de cada neurona. Un mecanismo que permite competir a las neuronas para responder a un subconjunto de entradas de tal manera que una y sólo una neurona por grupo se activa.

6. 2. Redes Neuronales Competitivas no supervisadas Potencial sináptico: Dinámica de la computación:

6. 2. Redes Neuronales Competitivas no supervisadas Gana la unidad de proceso cuyo vector sináptico wi está más cerca del vector de entrada x Teorema 1 Si r es la unidad de proceso ganadora cuando se introduce el patrón de entrada, x=(x1 ,x2 ,…,xN ), entonces

6. 2. Determinación de los pesos sinápticos: Regla de aprendizaje no supervisada Minimizar

6. 2. Determinación de los pesos sinápticos: Regla de aprendizaje no supervisada wr(k) x(k) wr(k+1)

ALGORITMO DE APRENDIZAJE COMPETITIVO INDIVIDUALIZADO Paso 0 Elegir como vectores de pesos sinápticos iniciales M patrones de entrenamiento y poner k=1. Paso 1 Elegir aleatoriamente un patrón de entrenamiento. Paso 2 Calcular los potenciales sinápticos h1(k), h2(k),…, hM(k). Paso 3 Determinar la neurona ganadora r, es decir, la de mayor potencial sináptico Paso 4 Actualizar como sigue: Paso 5 Calcular la nueva tasa de aprendizaje según la expresión Paso 6 Si k=T parar. Hemos encontrado los vectores sinápticos. En otro caso poner k=k+1 e ir al paso 1.

6. 2. Determinación de los pesos sinápticos: Regla de aprendizaje por lotes Minimizar

6. 2. Determinación de los pesos sinápticos: Otra regla de aprendizaje por lotes Minimizar

6.3 Redes Autoorganizados: La red de Kohonen En el aprendizaje competitivo no hemos tenido en cuenta para nada la posición física de las unidades de proceso. No ocurre así en el cerebro humano, donde neuronas próximas físicamente presentan características y comportamiento similares. La localización espacial de una neurona dentro de un mapa topográfico va a corresponder a un dominio o característica particular de los datos de entrada. Esta idea está inspirada en los estudios pioneros que hizo von der Malsburg (1973) indicando que un modelo del corteza visual puede no estar completamente predeterminado genéticamente sino que un proceso de autoorganización por aprendizaje puede ser responsable de la ordenación local de las neuronas. Kohonen (1982) presentó un modelo sencillo para la formación autoorganizada de mapas de características de los datos de entrada del que nos ocuparemos en este capítulo.

6.3. Red de Kohonen Funciones de vecindad: 0.5 1 Regla de aprendizaje:

Rejilla hexagonal Rejilla rectangular. 6.3. Red de Kohonen Tipos de rejillas: Rejilla hexagonal Rejilla rectangular.

6.3. Etapas del Proceso de Entrenamiento En la primera etapa, llamada fase de ordenación global, tiene lugar la ordenación topológica de los vectores sinápticos (vectores de referencia o prototipos) de las unidades de proceso. Se utiliza una tasa de aprendizaje alta (0.9) y un radio de vecindad grande similar al diámetro del mapa. A medida que avanza el aprendizaje, tanto la tasa de aprendizaje como el radio de vecindad se van reduciendo forma lineal hasta alcanzar unos valores mínimos, 0.02 y 1, respectivamente. La segunda etapa, llamada fase de ajuste fino, tiene como objetivo conseguir la convergencia de los vectores sinápticos a los prototipos de los grupos que construye la red. La tasa de aprendizaje se toma pequeña (0.05) y se puede mantener constante o reduciéndose suavemente. El radio de vecindad se toma igual a 1 (mínimo).

6.3. Etapas del Proceso de Entrenamiento Se repite el proceso de entrenamiento 10 veces, cada una de ellas con una configuración inicial diferente de los vectores sinápticos. Se calcula el error de representación para cada uno de los mapas obtenidos y se selecciona el de menor error. Por lo tanto, el proceso de aprendizaje de un Mapa Autoorganizativo se puede dividir en tres fases. Una primera fase competitiva en la que se determina la neurona ganadora, es decir, la mejor emparejada con el patrón de entrada según la distancia euclidiana; una segunda fase cooperativa establecida en términos de una función de vecindad entre la neurona ganadora y las demás, y, finalmente, una tercera fase adaptativa que actualiza los vectores sinápticos de la unidad ganadora y sus vecinas según la regla de aprendizaje

6.3.1 Precisión de la Transformación Cada unidad de proceso tiene asignado el conjunto de patrones de entrada que la hace ganadora. Dicho conjunto viene representado por el vector de pesos sinápticos de la unidad de proceso. Una medida de precisión de la transformación de un mapa autoorganizativo describe cómo de correcta es la representación de dicho conjunto de patrones por el vector de pesos sinápticos de la unidad de proceso que los representa (unidad ganadora). Es decir, la precisión de las respuestas de las unidades de proceso a un conjunto de patrones (datos) dado. Una medida que calcula la precisión de la transformación es el error medio de cuantificación sobre un conjunto de N datos que viene dada por la expresión:

6.3.2 Preservación de la topología Con una red autoorganizativa se persigue la preservación topológica en el plano de la proyección. Una medida de la preservación de la topología del conjunto de patrones (datos) en el mapa autoorganizado es el error topográfico que viene dado por la expresión: donde La proyección de Sammon es un algoritmo que proyecta un espacio de alta dimensión en un espacio de baja dimensión de manera que se minimice la siguiente función de error: siendo d*ij la distancia en el espacio original entre los objetos i-ésimo y j-ésimo

6.3.3. Aplicaciones: Visualización de datos Una matriz de distancias unificada (U-matriz) es una visualización 2D de datos multivariantes que utiliza los vectores sinápticos (prototipos, vectores de representación o vectores código) de las unidades de proceso de un Mapa Autoorganizativo. Para ello, se genera una matriz en la que cada elemento de la misma está asociado a una unidad de proceso y el valor de cada elemento viene determinado por la distancia media del vector de pesos sinápticos de la unidad de proceso a los vectores sinápticos de sus unidades de proceso vecinas. Por ejemplo, consideremos un mapa autoorganizado de tamaño 5×1, siendo pi, i=1,2,...,5, las unidades de proceso. La U-matriz es el vector definido por los elementos y N(i) es el conjunto de unidades de proceso vecinas con la unidad i.

6.3.3. Aplicaciones: Visualización de datos Los valores altos de una U-matriz representan una región frontera entre clusters mientras que los valores bajos representan un alto grado de similitud entre las neuronas de esa región (clusters). Podemos utilizar algún sistema de colores o tonos de gris para realizar una representación gráfica de dicha matriz. Mapa Autoorganizativo de Kohonen 40×40 para datos IRIS.

6.3.3. Aplicación al problema del viajante

6.3.3 Detección de vasos sanguíneos en mamografías

6.3.2 Detección de vasos sanguíneos en mamografías

6.4. Modelos ART (Adaptive Resonance Theory) Dilema de la estabilidad-plasticidad (Grossberg) Red neuronal ART1: Potencial sináptico: Unidad ganadora r : Test 1: Test 2: Parámetro de vigilancia Regla de aprendizaje

6.4 Modelos ART (Adaptive Resonance Theory) Red neuronal ART2 Unidad ganadora r : Test de vigilancia: Regla de aprendizaje:

6.5. Redes competitivas con aprendizaje supervisado Potencial sináptico: wr(k) x(k) wr(k+1) Unidad ganadora: Regla de aprendizaje para wr(k+1) x(k) wr(k)