Redes Competitivas.

Slides:



Advertisements
Presentaciones similares
Introducción a las Redes neuronales
Advertisements

DATA MINING MINERIA DE DATOS Gersom Costas.
Silvana Arias Carla Espinosa Livia Loaiza INGENIERIA EN SISTEMAS
Mapas Autoorganizados
6. Sistemas Autoorganizados
7. Máquinas Estocásticas
K-NN: K vecinos más cercanos
MATLAB MAYO 5 DEL 2005 IMPLEMENTACION DE LA FUNCION LOGICA XOR, MEDIANTE UN MODELO NEURONAL Y EL ALGORITMO BACKPROPAGATION EXPOSITORES: ANDRES FELIPE RESTREPO.
Red Neuronal de Contrapropagación
K-Means Integrantes Natalia Merino (85828) Gastón Sabatelli (85523)
Definición Machine learning traducido al español significa el aprendizaje automático o también aprendizaje de las maquinas. A partir de esto podemos darle.
Redes basadas en competición
Redes neuronales2 José Edinson Aedo Cobo Depto. de Ing. Electrónica.
Tema 6: Compresión de imagen
K-Means Integrantes Natalia Merino (85828) Gastón Sabatelli (85523)
REDES NEURONALES Dr. Jorge Vivas
Clustering (Agrupamiento)
APRENDIZAJE WIDROW- HOFF
El Perceptrón  El psicólogo Frank Ronsenblant desarrolló un modelo simple de neurona basado en el modelo de McCulloch y Pitts que utilizaba.
FUNDAMENTOS DE DATA MINING Y SUS APLICACIONES N. QUEIPO, S. PINTOS COPYRIGHT 2000 CLASIFICACIÓN NO SUPERVISADA.
Tema 2: Métodos de ajuste
RECONOCIMIETO DE PATRONES
Problemes de Viatjants
FUNCIONES DE DENSIDAD DE PROBABILIDAD
Diplomado "Gestión de Negocios con Data Warehouse y Data Mining".
Introducción Calculabilidad clásica Computación celular
Redes Neuronales Monocapa
El Perceptrón Multicapa
ANÁLISIS DE CONGLOMERADOS
Ejemplo de aplicación de las ANN
1 Problema no separable linealmente Se busca obtener un algoritmo más general que permita integrar el aprendizaje entre las dos capas.
Redes Neuronales Artificiales Autoorganizadas
1 Asignatura: Autor: Análisis Numérico César Menéndez Titulación: Planificación: Materiales: Conocimientos previos: Aproximación Ingeniero Técnico Informático.
Procesamiento digital Parte 3 - Filtros
Tipos de redes neuronales Perceptrón multicapa Redes de respuesta radial Competitivas Clasificación Mapa topológico.
Inicialización de Superficies Deformables mediante Elipsoides Generalizados R. Dosil, X. M. Pardo, A. Mosquera, D. Cabello Grupo de Visión Artificial Departamento.
3. Funciones discriminantes para la f.d.p normal.
Técnicas Supervisadas Aproximación no paramétrica
Aplicaciones de las Redes Neuronales Artificilaes Dr. Héctor Allende
Combinación de Clasificadores
Redes Asociativas.
Redes Neuronales Artificiales
EXTRACCIÓN DE CARACTERISTICAS
Capitulo 3 Segmentación.
MÉTODO DE PIXELES DE BORDE
Modelos Computacionales
REDES NEURONALES.
Aprendizaje Automatizado
Redes Neuronales Artificiales 2 - Aprendizaje
CARPLATE Reconocimiento del marco de la matrícula de un coche
Una introducción a la computación evolutiva
REDES NEURONALES ARTIFICIALES TEORÍA Y APLICACIONES
Sabemos reconocerlas, y calcularlas como soluciones de sistemas de ecuaciones, o de desigualdades Buscamos métodos de cálculo generales y eficientes Problemas.
Aprendizaje No Supervisado y Redes de Kohonen
Redes Neuronales BPN - Backpropagation Networks
Redes Neuronales Artificiales Entrenamiento por Retropropagación del Error-Backpropagation Dr. Pedro Ponce Cruz EGIA-MCI.
Algoritmo de Retropropagación. Conclusiones de Retropropagación n 1. Si la neurona j es un nodo de salida es igual al producto de la derivada y la señal.
REDES NEURONALES TEORÍA MODERNA DE LA FIRMA 2010.
2.1 DEFINICIONES CARACTERÍSTICAS Y SUPOSICIONES.
ESCALAMIENTO MULTIDIMENSIONAL
Aplicación JAVA implementando Arboles de Decisión
Ángel Berihuete Francisco Álvarez
BIENVENIDOS A ESTE VIDEO TUTORIAL DE LA MATERIA DE INVESTIGACION DE OPERACIONES… … ACONTINUACION EL TEMA QUE TRATAREMOS EN ESTE VIDEO TUTORIAL ES EL DE.
OPTIMIZACION DEL DESEMPEÑO DE ERROR
Tema 2: Estadística bidimensional
Clustering Pablo Palacios 1.  Introducción  Clasificación de Clustering  Clusters de particionamiento ◦ N-means  Clusters difusos ◦ GFN-means ◦ Gath-Geva.
REDES NEURONALES ARTIFICIALES (SOM - Kohonen)
Redes Neuronales Artificiales (ANN)
Unsupervised visual learning of three-dimensional objects using a modular network architecture Ando, Suzuki, Fujita Neural Networks 12 (1999)
Transcripción de la presentación:

Redes Competitivas

Características Arquitectura: Aprendizaje: Función de activación 1 nivel Full-connected Aprendizaje: no supervisado por parejas pesos fijos Función de activación fa = 1 para la/s neurona/s ganadora/s fa = 0 para el resto de neuronas

“ El ganador se lo lleva todo “ Redes Competitivas Normalmente una red asocia: En las redes competitivas la salida representa una categoría. Clasifican las entradas en clases. En las Redes Competitivas se dispara una (o unas pocas) neuronas. La regla es: “ El ganador se lo lleva todo “

Redes Competitivas Ejemplos: MAXNET. Gana 1 neurona. SOMBRERO MEJICANO. Ganan varias. Los algoritmos de competición implementados con redes normalmente tienen los pesos fijos. Las redes competitivas acostumbran a ser no supervisadas. Otras redes combinan la competición con el aprendizaje. En estos casos la red competitiva es una subnet.

Aplicaciones de las Redes Competitivas Clustering. Clasificación no supervisada. Cuantificación vectorial  Reducción de dimensiones: Extracción de características Refuerzo. No se le da un patrón de salida, sino un refuerzo positivo o negativo en función de si el resultado era el esperado o no.

Maxnet 2 m 1 ... x f(x) La función de activación es:

Algoritmo 1.- Inicialización. 2.- 3.- Repetir el paso 2 hasta que sólo quede una neurona  0  será la ganadora.

El Sombrero Mejicano i i-5 i-4 i-3 i-2 i-1 i+1 i+2 i+3 i+4 i+5 R1 R2

El Sombrero Mejicano Los pesos de la región de cooperación han de ser positivos y los de la región de competición negativos.

El Sombrero Mejicano La función de activación es la función rampa: x f(x) m

Algoritmo 1.- Inicialización. 2.- Cálculo de la salida.

Algoritmo 3.- Repetir el paso 2 tmax veces.

Aprendizaje Competitivo

Algoritmo de aprendizaje competitivo

Algoritmo competitivo básico. Método distancia euclídea Inicializar los pesos a valores aleatorios Ajustar , por ejemplo, con  (t+1)   (t) Seleccionar un patrón Encontrar la neurona más próxima a por ejemplo con la distancia euclídea Actualizar solamente

Algoritmo competitivo básico. Método producto escalar - Inicializar los pesos aleatoriamente - Normalizar entradas y pesos: - En este caso dos vectores y son similares cuando: o sea,

Aprendizaje Es decir, ya que Se selecciona la unidad ganadora ki y se ajustan sus pesos: donde 0 <  < 1 es el coeficiente de aprendizaje. Los vectores de pesos obtenidos se han de normalizar:

Ejemplos de Aprendizaje b)

Ejemplo de aprendizaje (método producto escalar) - Tenemos en cuenta esta arquitectura para el siguiente ejemplo de aprendizaje competitivo simple. - Se han omitido las interconexiones entre neuronas por simplicidad. - Consideramos:

Ejemplo de aprendizaje (método producto escalar) Inicializamos los pesos aleatoriamente y los normalizamos

Ejemplo de aprendizaje (método producto escalar) Proporcionamos una entrada: Buscamos el peso más cercano mediante el producto escalar Entrenamos la neurona ganadora donde  = 0.5 Normalizando conseguimos el nuevo

Ejemplo de aprendizaje (método producto escalar) Entramos un segundo patrón x Buscamos el peso más cercano mediante el producto escalar Entrenamos la neurona ganadora donde  = 0.5 Normalizando conseguimos el nuevo

Ejemplo de aprendizaje (método producto escalar) - Importa el orden con el que damos los patrones a nuestra red? - Se puede apreciar que el resultado del entrenamiento es distinto.

Comentarios  < 1 es el coeficiente de aprendizaje. Puede ser constante o ir disminuyendo durante el aprendizaje Si sólo hubiese un vector por neurona, bastaría con hacer: Si se tiene un conjunto de vectores para cada neurona, los pesos han de tender a la media del conjunto de vectores:

Comentarios Inicialización de pesos: Mas sencillo si se normalizan pesos y entradas y utilizar como medida el producto escalar. Aleatoriedad en la distribución de los pesos  problemas de aprendizaje: 1.- Los vectores de una misma clase disparan más de una neurona. 2.- No poder separar dos clases de vectores.

Comentarios No se puede determinar cómo serán las entradas  redistribuir los pesos en función de las entradas; Combinación convexa. Inicializar los pesos a: donde n es el número de entradas. Las entradas también se modifican: con inicialmente muy pequeño y aumenta hasta 1. Así inicialmente las entradas coinciden con los pesos y a medida que se entrena la red las entradas se acercan a sus valores reales y los pesos siguen a una o un grupo de entradas. Funciona bien pero es lenta.

Algoritmo K-means Clustering Inicializar k prototipos Cada cluster se asocia con un prototipo Repetir Para cada hacer Para cada hacer el centroide de las entradas Calcular el error Hasta que E no decrece o las clases no cambien

Algoritmo K-means Clustering Es similar al algoritmo competitivo básico como algoritmo de cluster Aquí no se actualiza la neurona ganadora sino los centroides de los clusters El número de clusters k es fijo, como en el competitivo básico. La elección de k no es sencilla. Si se quiere un algoritmo que adapte k podemos penalizar el aumento. Ek= E . k (coste por cluster) Problemas con los mínimos locales. Soluciones no-óptimas

Ejemplo K-means

Mapas de Kohonen

Formación de mapas autoorganizativos (Mapas de Kohonen) Kohonen planteó las redes competitivas por similitud con el sistema nervioso humano: Estudios neurobiológicos   organización topológica cerebral. Información biológica  Mapas bidimensionales. Unidades cercanas  Comportamiento Similar / Inverso. Ex: Mapas Tonotópicos  Neuronas próximas detectan sonidos similares.). Las redes de Kohonen tienen 2 características: Formación de mapas autoorganizativos (Mapas de Kohonen) 1.- Neuronas con conexiones laterales. 2.- Plasticidad sináptica hebbiana.

Teuvo Kohonen

Mapas Autoorganizativos de Kohonen 1.- Seleccionar la topología que determina la adyacencia de los nodos 2.- Inicializar los pesos con valores pequeños y aleatorios 3.- Inicializar la distancia R(0) > 0 R(t)  N 4.- Seleccionar la entrada 5.- Calcular la distancia Euclídea 6.- Seleccionar la “j” cuya “d” es mínima 7.- Actualizar los nodos con una distancia topológica < R(t) 8.- t = t+1; 9.- Fin.

Radio de influencia R=1 R=0 Iterando con el método de Kohonen los pesos se van organizando en una estructura reticular organizada. R=1 R=0 Mapa de Kohonen

Mapa autoorganizativo 2D

Mapa autoorganizativo 1D

Mapa autoorganizativo

Mapa autoorganizativo

Mapa autoorganizativo

Descenso del gradiente El error para una entrada y la neurona ganadora sólo depende de los pesos: El incremento de pesos es: donde La red de Kohonen se puede aplicar a: al problema del viajante. en combinación con otros tipos de redes.

Counterpropagation

Counterpropagation ... ... ... ... Nivel de Kohonen Nivel de Grossberg km gn Nivel de Kohonen Nivel de Grossberg

Counterpropagation 2 Niveles: Nivel de Kohonen. No supervisado (competitivo). Nivel de Grossberg. Supervisado. Es una red supervisada. El nivel de Kohonen clasifica y el de Grossberg convierte la salida al formato deseado (LUT adaptativa). Se soluciona el problema de que existan varias neuronas para representar una clase. Los dos niveles aprenden separadamente. No tan fiable como Backpropagation, pero aprende más rápido.

Operación Normal Nivel de Kohonen. “La ganadora se lo lleva todo”. Dado un vector de entrada sólo se dispara una neurona ki y el resto quedan inhibidas: es decir Nivel de Grossberg. Funciona de forma normal. La función de activación suele ser lineal.

Aprendizaje Nivel de Kohonen. Clasifica las entradas en grupos de similitud que activan la misma neurona (ki). Nivel de Grossberg. 1.- Se aplica un vector de entrada (vector de salida del nivel de Kohonen). 2.- Se calcula la salida. 3.- Se ajustan los pesos que conectan con la neurona de la capa de Kohonen con salida diferente de 0: donde es el coeficiente de aprendizaje y es la salida deseada.

Full Counterpropagation

Full Counterpropagation , normalizados y se forma Si y , y se entra a la red , esta retornará Además : Si se entra con la salida será La red produce la función y su inversa.

Full Counterpropagation Aplicación  Compresión de Datos aplicada a imágenes: Cada imagen  Subimágenes de n píxels  Pixels (0,1) Cada subimagen  1 vector  Dispara una neurona de Kohonen Se codifica con Grossberg. Se envía la codificación  Una red identica realiza la función inversa. La reducción conseguida va de 10:1 hasta 100:1. Existe distorsión pero la calidad es aceptable.