Descargar la presentación
La descarga está en progreso. Por favor, espere
1
Redes Competitivas
2
Características Arquitectura: Aprendizaje: Función de activación
1 nivel Full-connected Aprendizaje: no supervisado por parejas pesos fijos Función de activación fa = 1 para la/s neurona/s ganadora/s fa = 0 para el resto de neuronas
3
“ El ganador se lo lleva todo “
Redes Competitivas Normalmente una red asocia: En las redes competitivas la salida representa una categoría. Clasifican las entradas en clases. En las Redes Competitivas se dispara una (o unas pocas) neuronas. La regla es: “ El ganador se lo lleva todo “
4
Redes Competitivas Ejemplos: MAXNET. Gana 1 neurona.
SOMBRERO MEJICANO. Ganan varias. Los algoritmos de competición implementados con redes normalmente tienen los pesos fijos. Las redes competitivas acostumbran a ser no supervisadas. Otras redes combinan la competición con el aprendizaje. En estos casos la red competitiva es una subnet.
5
Aplicaciones de las Redes Competitivas
Clustering. Clasificación no supervisada. Cuantificación vectorial Reducción de dimensiones: Extracción de características Refuerzo. No se le da un patrón de salida, sino un refuerzo positivo o negativo en función de si el resultado era el esperado o no.
6
Maxnet 2 m 1 ... x f(x) La función de activación es:
7
Algoritmo 1.- Inicialización. 2.-
3.- Repetir el paso 2 hasta que sólo quede una neurona 0 será la ganadora.
8
El Sombrero Mejicano i i-5 i-4 i-3 i-2 i-1 i+1 i+2 i+3 i+4 i+5 R1 R2
9
El Sombrero Mejicano Los pesos de la región de cooperación han de ser positivos y los de la región de competición negativos.
10
El Sombrero Mejicano La función de activación es la función rampa:
x f(x) m
11
Algoritmo 1.- Inicialización. 2.- Cálculo de la salida.
12
Algoritmo 3.- Repetir el paso 2 tmax veces.
13
Aprendizaje Competitivo
14
Algoritmo de aprendizaje competitivo
15
Algoritmo competitivo básico. Método distancia euclídea
Inicializar los pesos a valores aleatorios Ajustar , por ejemplo, con (t+1) (t) Seleccionar un patrón Encontrar la neurona más próxima a por ejemplo con la distancia euclídea Actualizar solamente
16
Algoritmo competitivo básico. Método producto escalar
- Inicializar los pesos aleatoriamente - Normalizar entradas y pesos: - En este caso dos vectores y son similares cuando: o sea,
17
Aprendizaje Es decir, ya que
Se selecciona la unidad ganadora ki y se ajustan sus pesos: donde 0 < < 1 es el coeficiente de aprendizaje. Los vectores de pesos obtenidos se han de normalizar:
18
Ejemplos de Aprendizaje
b)
19
Ejemplo de aprendizaje (método producto escalar)
- Tenemos en cuenta esta arquitectura para el siguiente ejemplo de aprendizaje competitivo simple. - Se han omitido las interconexiones entre neuronas por simplicidad. - Consideramos:
20
Ejemplo de aprendizaje (método producto escalar)
Inicializamos los pesos aleatoriamente y los normalizamos
21
Ejemplo de aprendizaje (método producto escalar)
Proporcionamos una entrada: Buscamos el peso más cercano mediante el producto escalar Entrenamos la neurona ganadora donde = 0.5 Normalizando conseguimos el nuevo
22
Ejemplo de aprendizaje (método producto escalar)
Entramos un segundo patrón x Buscamos el peso más cercano mediante el producto escalar Entrenamos la neurona ganadora donde = 0.5 Normalizando conseguimos el nuevo
23
Ejemplo de aprendizaje (método producto escalar)
- Importa el orden con el que damos los patrones a nuestra red? - Se puede apreciar que el resultado del entrenamiento es distinto.
24
Comentarios < 1 es el coeficiente de aprendizaje. Puede ser constante o ir disminuyendo durante el aprendizaje Si sólo hubiese un vector por neurona, bastaría con hacer: Si se tiene un conjunto de vectores para cada neurona, los pesos han de tender a la media del conjunto de vectores:
25
Comentarios Inicialización de pesos:
Mas sencillo si se normalizan pesos y entradas y utilizar como medida el producto escalar. Aleatoriedad en la distribución de los pesos problemas de aprendizaje: 1.- Los vectores de una misma clase disparan más de una neurona. 2.- No poder separar dos clases de vectores.
26
Comentarios No se puede determinar cómo serán las entradas redistribuir los pesos en función de las entradas; Combinación convexa. Inicializar los pesos a: donde n es el número de entradas. Las entradas también se modifican: con inicialmente muy pequeño y aumenta hasta 1. Así inicialmente las entradas coinciden con los pesos y a medida que se entrena la red las entradas se acercan a sus valores reales y los pesos siguen a una o un grupo de entradas. Funciona bien pero es lenta.
27
Algoritmo K-means Clustering
Inicializar k prototipos Cada cluster se asocia con un prototipo Repetir Para cada hacer Para cada hacer el centroide de las entradas Calcular el error Hasta que E no decrece o las clases no cambien
28
Algoritmo K-means Clustering
Es similar al algoritmo competitivo básico como algoritmo de cluster Aquí no se actualiza la neurona ganadora sino los centroides de los clusters El número de clusters k es fijo, como en el competitivo básico. La elección de k no es sencilla. Si se quiere un algoritmo que adapte k podemos penalizar el aumento. Ek= E . k (coste por cluster) Problemas con los mínimos locales. Soluciones no-óptimas
29
Ejemplo K-means
30
Mapas de Kohonen
31
Formación de mapas autoorganizativos (Mapas de Kohonen)
Kohonen planteó las redes competitivas por similitud con el sistema nervioso humano: Estudios neurobiológicos organización topológica cerebral. Información biológica Mapas bidimensionales. Unidades cercanas Comportamiento Similar / Inverso. Ex: Mapas Tonotópicos Neuronas próximas detectan sonidos similares.). Las redes de Kohonen tienen 2 características: Formación de mapas autoorganizativos (Mapas de Kohonen) 1.- Neuronas con conexiones laterales. 2.- Plasticidad sináptica hebbiana.
32
Teuvo Kohonen
33
Mapas Autoorganizativos de Kohonen
1.- Seleccionar la topología que determina la adyacencia de los nodos 2.- Inicializar los pesos con valores pequeños y aleatorios 3.- Inicializar la distancia R(0) > 0 R(t) N 4.- Seleccionar la entrada 5.- Calcular la distancia Euclídea 6.- Seleccionar la “j” cuya “d” es mínima 7.- Actualizar los nodos con una distancia topológica < R(t) 8.- t = t+1; 9.- Fin.
34
Radio de influencia R=1 R=0
Iterando con el método de Kohonen los pesos se van organizando en una estructura reticular organizada. R=1 R=0 Mapa de Kohonen
35
Mapa autoorganizativo 2D
36
Mapa autoorganizativo 1D
37
Mapa autoorganizativo
38
Mapa autoorganizativo
39
Mapa autoorganizativo
40
Descenso del gradiente
El error para una entrada y la neurona ganadora sólo depende de los pesos: El incremento de pesos es: donde La red de Kohonen se puede aplicar a: al problema del viajante. en combinación con otros tipos de redes.
41
Counterpropagation
42
Counterpropagation ... ... ... ... Nivel de Kohonen Nivel de Grossberg
km gn Nivel de Kohonen Nivel de Grossberg
43
Counterpropagation 2 Niveles:
Nivel de Kohonen. No supervisado (competitivo). Nivel de Grossberg. Supervisado. Es una red supervisada. El nivel de Kohonen clasifica y el de Grossberg convierte la salida al formato deseado (LUT adaptativa). Se soluciona el problema de que existan varias neuronas para representar una clase. Los dos niveles aprenden separadamente. No tan fiable como Backpropagation, pero aprende más rápido.
44
Operación Normal Nivel de Kohonen. “La ganadora se lo lleva todo”.
Dado un vector de entrada sólo se dispara una neurona ki y el resto quedan inhibidas: es decir Nivel de Grossberg. Funciona de forma normal. La función de activación suele ser lineal.
45
Aprendizaje Nivel de Kohonen. Clasifica las entradas en grupos de similitud que activan la misma neurona (ki). Nivel de Grossberg. 1.- Se aplica un vector de entrada (vector de salida del nivel de Kohonen). 2.- Se calcula la salida. 3.- Se ajustan los pesos que conectan con la neurona de la capa de Kohonen con salida diferente de 0: donde es el coeficiente de aprendizaje y es la salida deseada.
46
Full Counterpropagation
47
Full Counterpropagation
, normalizados y se forma Si y , y se entra a la red , esta retornará Además : Si se entra con la salida será La red produce la función y su inversa.
48
Full Counterpropagation
Aplicación Compresión de Datos aplicada a imágenes: Cada imagen Subimágenes de n píxels Pixels (0,1) Cada subimagen 1 vector Dispara una neurona de Kohonen Se codifica con Grossberg. Se envía la codificación Una red identica realiza la función inversa. La reducción conseguida va de 10:1 hasta 100:1. Existe distorsión pero la calidad es aceptable.
Presentaciones similares
© 2024 SlidePlayer.es Inc.
All rights reserved.