Redes basadas en competición

Slides:



Advertisements
Presentaciones similares
INTRODUCCION A TECNICAS DE MINERIA DE DATOS
Advertisements

Introducción a las Redes neuronales
ALUMNO: LEONODAS TEJADA BALDARRAGO GRADO: TERCERO
GRAFOS ESTRUCTURAS DE DATOS.
Silvana Arias Carla Espinosa Livia Loaiza INGENIERIA EN SISTEMAS
3 Redes Recurrentes y Autónomas
6. Sistemas Autoorganizados
7. Máquinas Estocásticas
VERANO CIENTÍFICO 2012 Lic. Cristina Maya Padrón Ing. Fernando Elizalde Ramírez Modelos de Planificación de Inteligencia Artificial.
REDES NEURONALES Universidad Autónoma del estado de hidalgo
K-NN: K vecinos más cercanos
ALGORITMO DEL ÁRBOL DE MÍNIMA EXPANSIÓN
PROYECTO DE GRADO CARLOS STALIN ALVARADO SANCHEZ
Red Neuronal de Contrapropagación
Fundamentos de Lógica Difusa (Fuzzy)
Fundamentos de Lógica Difusa (Fuzzy)
Curso de Semiconductores
Redes neuronales2 José Edinson Aedo Cobo Depto. de Ing. Electrónica.
Curso de Semiconductores reunión 5
Redes neuronales 1 José Edinson Aedo Cobo Depto. de Ing. Electrónica.
Curso Circuitos Digitales I Sesión 2 (complemento)
Introducción a la Computación
Diseño de software para la simulación y solución de redes como estrategia para dominar las materias de circuitos eléctricos” M.C. Carlos Rodríguez Pérez.
Facultad de Ingeniería y Arquitectura Introducción a la Computación 2007 – I (11va Semana) Lunes 14 de Mayo Ing. Juan José Montero Román.
REDES NEURONALES Dr. Jorge Vivas
Clustering (Agrupamiento)
Redes Neuronales. SOMAdendritas AXON Sinapsis Las neuronas recibe entradas de otras neuronas a través de las dendritas y cuando la señal excede un cierto.
APRENDIZAJE WIDROW- HOFF
El Perceptrón  El psicólogo Frank Ronsenblant desarrolló un modelo simple de neurona basado en el modelo de McCulloch y Pitts que utilizaba.
REDES NEURONALES ARTIFICIALES
Curso Circuitos Digitales I Sesión 2
Tema 13 Teoría de Redes Topología de redes: Conceptos fundamentales
LENGUAS ELECTRÓNICAS.
ALGORITMO DE FLOYD dik + dkj < dij
Introducción Calculabilidad clásica Computación celular
Redes Neuronales Monocapa
El Perceptrón Multicapa
1 Problema no separable linealmente Se busca obtener un algoritmo más general que permita integrar el aprendizaje entre las dos capas.
Un ejemplo ilustrativo
Redes Neuronales Artificiales Autoorganizadas
ING. JOSE GUILLERMO GUARNIZO MARIN
GRUPO DE INVESTIGACION EN CONTROL INDUSTRIAL
Aplicaciones de las Redes Neuronales Artificilaes Dr. Héctor Allende
Redes Neuronales Artificiales Tarea 5 BackPropagation I Redes Neuronales Artificiales Tarea 5 BackPropagation I Dr. Juan José Flores Romero División de.
Redes Neuronales Artificiales Tarea 6 BackPropagation II Redes Neuronales Artificiales Tarea 6 BackPropagation II Dr. Juan José Flores Romero División.
Aprendizaje de Agentes II Alberto Reyes Ballesteros Programa ITESM-IIE Doctorado en Ciencias Computacionales.
Capitulo 3 Segmentación.
Modelos Computacionales
Redes Competitivas.
REDES NEURONALES.
M A T R I C E S MATRICES matrices.
3- PROGRAMACION LINEAL PARAMETRICA
Aprendizaje Automatizado
Redes Neuronales Artificiales 2 - Aprendizaje
Introduccion a las Redes de Funciones de Base Radial
REDES NEURONALES ARTIFICIALES TEORÍA Y APLICACIONES
TEMA 5: El problema del flujo con costo mínimo
Redes Neuronales BPN - Backpropagation Networks
Redes neuronales feed-forward
Algoritmo de Retropropagación. Notación n i, j, k son índices de las neuronas en las distintas capas.
Ángel Berihuete Francisco Álvarez
PROGRAMACIÓN Grupo de Modelamiento de Sistemas
REDES NEURONALES ARTIFICIALES (SOM - Kohonen)
Redes Neuronales Artificiales (ANN)
VECTORES OPERACIONES CON VECTORES MATRICES.
SOM: Modelos de mapas Auto-organizativos
Algoritmos geneticos. Función de propagación o ponderación Esta función se encarga de transformar las diferentes entradas que provienen de la sinapsis.
PATRON LINEAL.
Radial basis functions
Redes Auto-organizadas
Transcripción de la presentación:

Redes basadas en competición José Edinson Aedo Cobo Depto. de Ing. Electrónica. E-mail: joseaedo@udea.edu.co

Redes neuronales basadas en competición El aprendizaje se basa en un competencia entre neuronas. Cuando un patrón de entrada es sometido a la red, una neurona se declara ganadora dependiendo de una similitud entre los pesos de la neurona y el vector de entrada. El premio de la neurona ganadora es el aprendizaje. los pesos se varias de tal forma que se acerquen aún más al patrón de entrada.

Redes neuronales basadas en competición Uno de los algoritmos de aprendizaje más conocido es el aprendizaje de Kohonen: Vector de entrada Vector de pesos para unidad j Columna j de la matriz de pesos

Redes neuronales basadas en competición Sombrero Mexicano (Kohonen) ( para la unidad xi) w2 w2 w1 w1 Xi-4 Xi-3 Xi-2 Xi-1 Xi Xi+1 Xi+2 Xi+3 Xi+4 w3 w3 Si R1, radio de interconexión. Xi es conectada a las unidades Xi-k y Xi+k para k= 1, ….R1 R2, radio de la región donde se realiza reforzamiento. R2 < R1 Wk, pesos de interconexión entre Xi las unidades Xi-k y Xi+k Para 0 k  R2, Wk > 0 Para R2 k  R1, Wk < 0

Redes neuronales basadas en competición Sombrero mexicano ( para la unidad xi) w2 w2 w1 w1 Xi-4 Xi-3 Xi-2 Xi-1 Xi Xi+1 Xi+2 Xi+3 Xi+4 w3 w3 Si X, Vector da activación Xold Vector de activación en paso previo (tiempo previo)

Sombrero mexicano. Algoritmo Paso 0: Inicialice los parámetros: tmax, R1, R2 y los pesos WK = C1, para k=0,…..R1, ( C1 >0) WK = C2, para k=R1,…..R2, ( C2 < 0) Xold = 0 Paso 1:Presente la señal de entrada Si, haga X=S Salve las activaciones Xold_i =Xi Inicialice el contador t=1 Paso 2: Mientras t< tmax, realice los pasos de 3 a 7. Paso3: Calcule la entrada de la red, i = 1,…,n

Sombrero mexicano. Algoritmo Paso4: aplique la función de activación (rampa de 0 a Xmax ,pendiente 1): Paso5: Salve la activación corriente en Xold: Xold i= Xi, i=1,…,n Paso6: incremente el contador de interacciones t=t+1 Paso7: Verifique la condición de parada. Si t < tmax, continue

Red de Kohonen lineal Ejemplo de un arreglo lineal: Yi …… YJ …… Xm w1m wim w11 w1j wnm wij wnj wi1 wn1 Xi …… Xi …… Xn Ejemplo de un arreglo lineal: Neurón de referencia R1 Radio de las vecindades R2

Red de Kohonen. Algoritmo Paso 0: Inicialice los pesos Wij , establezca los parámetros topológicos de la vecindad. Establezca parámetros de aprendizaje Paso 1: Mientras la condición de parada sea falsa realice los pasos del 2 a 8. Paso2: Por cada vector de entrada realice los pasos 3-5: Paso3: Por cada j calcule:

Red de Kohonen. Algoritmo Paso4: Encuentre el índice J tal D(J) es mínimo. Paso5: Para todas la unidades j dentro de una vecindad especificada de J, para todo i calcule: Paso6: Actualice la tasa de aprendizaje. Paso7: Reduzca el radio de la vecindad en un valor especificado. Paso8: Verifique la condición de parada.