La descarga está en progreso. Por favor, espere

La descarga está en progreso. Por favor, espere

Redes Competitivas.

Presentaciones similares


Presentación del tema: "Redes Competitivas."— Transcripción de la presentación:

1 Redes Competitivas

2 Características Arquitectura: Aprendizaje: Función de activación
1 nivel Full-connected Aprendizaje: no supervisado por parejas pesos fijos Función de activación fa = 1 para la/s neurona/s ganadora/s fa = 0 para el resto de neuronas

3 “ El ganador se lo lleva todo “
Redes Competitivas Normalmente una red asocia: En las redes competitivas la salida representa una categoría. Clasifican las entradas en clases. En las Redes Competitivas se dispara una (o unas pocas) neuronas. La regla es: “ El ganador se lo lleva todo “

4 Redes Competitivas Ejemplos: MAXNET. Gana 1 neurona.
SOMBRERO MEJICANO. Ganan varias. Los algoritmos de competición implementados con redes normalmente tienen los pesos fijos. Las redes competitivas acostumbran a ser no supervisadas. Otras redes combinan la competición con el aprendizaje. En estos casos la red competitiva es una subnet.

5 Aplicaciones de las Redes Competitivas
Clustering. Clasificación no supervisada. Cuantificación vectorial  Reducción de dimensiones: Extracción de características Refuerzo. No se le da un patrón de salida, sino un refuerzo positivo o negativo en función de si el resultado era el esperado o no.

6 Maxnet 2 m 1 ... x f(x) La función de activación es:

7 Algoritmo 1.- Inicialización. 2.-
3.- Repetir el paso 2 hasta que sólo quede una neurona  0  será la ganadora.

8 El Sombrero Mejicano i i-5 i-4 i-3 i-2 i-1 i+1 i+2 i+3 i+4 i+5 R1 R2

9 El Sombrero Mejicano Los pesos de la región de cooperación han de ser positivos y los de la región de competición negativos.

10 El Sombrero Mejicano La función de activación es la función rampa:
x f(x) m

11 Algoritmo 1.- Inicialización. 2.- Cálculo de la salida.

12 Algoritmo 3.- Repetir el paso 2 tmax veces.

13 Aprendizaje Competitivo

14 Algoritmo de aprendizaje competitivo

15 Algoritmo competitivo básico. Método distancia euclídea
Inicializar los pesos a valores aleatorios Ajustar , por ejemplo, con  (t+1)   (t) Seleccionar un patrón Encontrar la neurona más próxima a por ejemplo con la distancia euclídea Actualizar solamente

16 Algoritmo competitivo básico. Método producto escalar
- Inicializar los pesos aleatoriamente - Normalizar entradas y pesos: - En este caso dos vectores y son similares cuando: o sea,

17 Aprendizaje Es decir, ya que
Se selecciona la unidad ganadora ki y se ajustan sus pesos: donde 0 <  < 1 es el coeficiente de aprendizaje. Los vectores de pesos obtenidos se han de normalizar:

18 Ejemplos de Aprendizaje
b)

19 Ejemplo de aprendizaje (método producto escalar)
- Tenemos en cuenta esta arquitectura para el siguiente ejemplo de aprendizaje competitivo simple. - Se han omitido las interconexiones entre neuronas por simplicidad. - Consideramos:

20 Ejemplo de aprendizaje (método producto escalar)
Inicializamos los pesos aleatoriamente y los normalizamos

21 Ejemplo de aprendizaje (método producto escalar)
Proporcionamos una entrada: Buscamos el peso más cercano mediante el producto escalar Entrenamos la neurona ganadora donde  = 0.5 Normalizando conseguimos el nuevo

22 Ejemplo de aprendizaje (método producto escalar)
Entramos un segundo patrón x Buscamos el peso más cercano mediante el producto escalar Entrenamos la neurona ganadora donde  = 0.5 Normalizando conseguimos el nuevo

23 Ejemplo de aprendizaje (método producto escalar)
- Importa el orden con el que damos los patrones a nuestra red? - Se puede apreciar que el resultado del entrenamiento es distinto.

24 Comentarios  < 1 es el coeficiente de aprendizaje. Puede ser constante o ir disminuyendo durante el aprendizaje Si sólo hubiese un vector por neurona, bastaría con hacer: Si se tiene un conjunto de vectores para cada neurona, los pesos han de tender a la media del conjunto de vectores:

25 Comentarios Inicialización de pesos:
Mas sencillo si se normalizan pesos y entradas y utilizar como medida el producto escalar. Aleatoriedad en la distribución de los pesos  problemas de aprendizaje: 1.- Los vectores de una misma clase disparan más de una neurona. 2.- No poder separar dos clases de vectores.

26 Comentarios No se puede determinar cómo serán las entradas  redistribuir los pesos en función de las entradas; Combinación convexa. Inicializar los pesos a: donde n es el número de entradas. Las entradas también se modifican: con inicialmente muy pequeño y aumenta hasta 1. Así inicialmente las entradas coinciden con los pesos y a medida que se entrena la red las entradas se acercan a sus valores reales y los pesos siguen a una o un grupo de entradas. Funciona bien pero es lenta.

27 Algoritmo K-means Clustering
Inicializar k prototipos Cada cluster se asocia con un prototipo Repetir Para cada hacer Para cada hacer el centroide de las entradas Calcular el error Hasta que E no decrece o las clases no cambien

28 Algoritmo K-means Clustering
Es similar al algoritmo competitivo básico como algoritmo de cluster Aquí no se actualiza la neurona ganadora sino los centroides de los clusters El número de clusters k es fijo, como en el competitivo básico. La elección de k no es sencilla. Si se quiere un algoritmo que adapte k podemos penalizar el aumento. Ek= E . k (coste por cluster) Problemas con los mínimos locales. Soluciones no-óptimas

29 Ejemplo K-means

30 Mapas de Kohonen

31 Formación de mapas autoorganizativos (Mapas de Kohonen)
Kohonen planteó las redes competitivas por similitud con el sistema nervioso humano: Estudios neurobiológicos   organización topológica cerebral. Información biológica  Mapas bidimensionales. Unidades cercanas  Comportamiento Similar / Inverso. Ex: Mapas Tonotópicos  Neuronas próximas detectan sonidos similares.). Las redes de Kohonen tienen 2 características: Formación de mapas autoorganizativos (Mapas de Kohonen) 1.- Neuronas con conexiones laterales. 2.- Plasticidad sináptica hebbiana.

32 Teuvo Kohonen

33 Mapas Autoorganizativos de Kohonen
1.- Seleccionar la topología que determina la adyacencia de los nodos 2.- Inicializar los pesos con valores pequeños y aleatorios 3.- Inicializar la distancia R(0) > 0 R(t)  N 4.- Seleccionar la entrada 5.- Calcular la distancia Euclídea 6.- Seleccionar la “j” cuya “d” es mínima 7.- Actualizar los nodos con una distancia topológica < R(t) 8.- t = t+1; 9.- Fin.

34 Radio de influencia R=1 R=0
Iterando con el método de Kohonen los pesos se van organizando en una estructura reticular organizada. R=1 R=0 Mapa de Kohonen

35 Mapa autoorganizativo 2D

36 Mapa autoorganizativo 1D

37 Mapa autoorganizativo

38 Mapa autoorganizativo

39 Mapa autoorganizativo

40 Descenso del gradiente
El error para una entrada y la neurona ganadora sólo depende de los pesos: El incremento de pesos es: donde La red de Kohonen se puede aplicar a: al problema del viajante. en combinación con otros tipos de redes.

41 Counterpropagation

42 Counterpropagation ... ... ... ... Nivel de Kohonen Nivel de Grossberg
km gn Nivel de Kohonen Nivel de Grossberg

43 Counterpropagation 2 Niveles:
Nivel de Kohonen. No supervisado (competitivo). Nivel de Grossberg. Supervisado. Es una red supervisada. El nivel de Kohonen clasifica y el de Grossberg convierte la salida al formato deseado (LUT adaptativa). Se soluciona el problema de que existan varias neuronas para representar una clase. Los dos niveles aprenden separadamente. No tan fiable como Backpropagation, pero aprende más rápido.

44 Operación Normal Nivel de Kohonen. “La ganadora se lo lleva todo”.
Dado un vector de entrada sólo se dispara una neurona ki y el resto quedan inhibidas: es decir Nivel de Grossberg. Funciona de forma normal. La función de activación suele ser lineal.

45 Aprendizaje Nivel de Kohonen. Clasifica las entradas en grupos de similitud que activan la misma neurona (ki). Nivel de Grossberg. 1.- Se aplica un vector de entrada (vector de salida del nivel de Kohonen). 2.- Se calcula la salida. 3.- Se ajustan los pesos que conectan con la neurona de la capa de Kohonen con salida diferente de 0: donde es el coeficiente de aprendizaje y es la salida deseada.

46 Full Counterpropagation

47 Full Counterpropagation
, normalizados y se forma Si y , y se entra a la red , esta retornará Además : Si se entra con la salida será La red produce la función y su inversa.

48 Full Counterpropagation
Aplicación  Compresión de Datos aplicada a imágenes: Cada imagen  Subimágenes de n píxels  Pixels (0,1) Cada subimagen  1 vector  Dispara una neurona de Kohonen Se codifica con Grossberg. Se envía la codificación  Una red identica realiza la función inversa. La reducción conseguida va de 10:1 hasta 100:1. Existe distorsión pero la calidad es aceptable.


Descargar ppt "Redes Competitivas."

Presentaciones similares


Anuncios Google