La descarga está en progreso. Por favor, espere

La descarga está en progreso. Por favor, espere

Ángel Berihuete Francisco Álvarez

Presentaciones similares


Presentación del tema: "Ángel Berihuete Francisco Álvarez"— Transcripción de la presentación:

1 Ángel Berihuete Francisco Álvarez
Las Redes Neuronales como complemento al Análisis de Componentes Principales Ángel Berihuete Francisco Álvarez

2 C.P.A. (Transformación Karhunen-Loève)
Curso de doctorado 99-00 Principios de 1999 N.N. C.P.A. (Transformación Karhunen-Loève) Problema común en el reconocimiento de patrones estadísticos: Extracción de variables. El espacio de de datos es transformado a un espacio de características. Los datos están representados por el conjunto de variables que aportan mayor información intrínseca Producimos una reducción de la dimensionalidad Distintas topologías de Red Neuronal: Perceptrón (multicapa) S.O.M. Hopfield Aprendizajes: Supervisado No supervisado

3 Topología de la red Aprendizaje de la red
Se actualizan los pesos de la red neuronal para conseguir la función deseada.

4 Curso de doctorado 00-01 Francisco Álvarez Andrés Jiménez
Problema común en el reconocimiento de patrones estadísticos: Extracción de variables. El espacio de de datos es transformado a un espacio de características. El conjunto está representado por el conjunto de variables con mayor información intrínseca Generamos una reducción de la dimensionalidad Distintas topologías de Red Neuronal: Perceptrón (multicapa) S.O.M. Mapas autoorganizados de Kohonen Aprendizajes: Supervisado No supervisado Francisco Álvarez Andrés Jiménez Ángel Berihuete

5 ¡Estamos de enhorabuena!
Una sola neurona lineal con un aprendizaje del tipo Hebb para sus pesos, puede evolucionar en un filtro para la primera componente principal de los datos. (Oja, 1982)

6 Generalización: Algoritmo G.H.A.
Red con dos niveles Red Progresiva Cada neurona en la capa de salida es lineal. l < m El aprendizaje es de tipo Hebbian Los pesos tienden a las componentes principales de los datos

7 Abril de 2001 Implementamos el algoritmo en Matlab
213 100 8 56 25 34 255

8 ¿Cómo aprende la red? 2 iteraciones 100 iteraciones 2000 iteraciones

9 Reconstruyendo la imagen
Ratio de compresión. Error mínimos cuadrados. Almacenamos la matriz de pesos para un una nueva foto. 21 3 100 256 25 69 101 12

10 Mejora del algoritmo: Filtro de Entropía
Seleccionamos los datos que tienen mayor entropía relativa dentro de la imagen. Menor tiempo de computación. Obtenemos un error de mínimos cuadrados menor.

11 Nuevas líneas de investigación
Análisis de Componentes Independientes. Teoría de la información. Programación en hardware paralelo.


Descargar ppt "Ángel Berihuete Francisco Álvarez"

Presentaciones similares


Anuncios Google