Ángel Berihuete Francisco Álvarez

Slides:



Advertisements
Presentaciones similares
S ISTEMAS EXPERTOS BASADOS EN R EDES N EURONALES.
Advertisements

Jacqueline Chávez Cuzcano
INTRODUCCION A TECNICAS DE MINERIA DE DATOS
Introducción a las Redes neuronales
DATA MINING MINERIA DE DATOS Gersom Costas.
Silvana Arias Carla Espinosa Livia Loaiza INGENIERIA EN SISTEMAS
Mapas Autoorganizados
6. Sistemas Autoorganizados
7. Máquinas Estocásticas
Autora: Carmen Alonso Montes Director: Manuel González Penedo
REDES NEURONALES.
Data Mining Integrantes: Rojas Correa, Trinidad Romanskyy, Bohdan
PROYECTO DE GRADO CARLOS STALIN ALVARADO SANCHEZ
ESCUELA POLITÉCNICA DEL EJÉRCITO
Redes neuronales2 José Edinson Aedo Cobo Depto. de Ing. Electrónica.
RECONOCIMIENTO DE OBJETOS
APRENDIZAJE WIDROW- HOFF
El Perceptrón  El psicólogo Frank Ronsenblant desarrolló un modelo simple de neurona basado en el modelo de McCulloch y Pitts que utilizaba.
Inteligencia Artificial (BAIA)  Se propone lograr que las computadoras se comporten de manera que podamos reconocerlas como inteligentes.  Tiene por.
REDES NEURONALES ARTIFICIALES
Redes Neuronales Artificiales
Seminario Científico Internacional 2008 de invierno (SCI 2008i) - Francisco García Fernández. Dr. Ingeniero de Montes - Luis García Esteban. Dr. Ingeniero.
FUNDAMENTOS DE DATA MINING Y SUS APLICACIONES N. QUEIPO, S. PINTOS COPYRIGHT 2000 CLASIFICACIÓN NO SUPERVISADA.
RECONOCIMIETO DE PATRONES
LENGUAS ELECTRÓNICAS.
Diplomado "Gestión de Negocios con Data Warehouse y Data Mining".
Introducción Calculabilidad clásica Computación celular
Redes Neuronales Monocapa
El Perceptrón Multicapa
Ejemplo de aplicación de las ANN
Image Processing Using FL and ANN Chapter 10 Dr. Mario Chacón DSP & Vision Lab.
1 Problema no separable linealmente Se busca obtener un algoritmo más general que permita integrar el aprendizaje entre las dos capas.
Redes Neuronales Artificiales Autoorganizadas
ING. JOSE GUILLERMO GUARNIZO MARIN
Tipos de redes neuronales Perceptrón multicapa Redes de respuesta radial Competitivas Clasificación Mapa topológico.
3. Funciones discriminantes para la f.d.p normal.
Reconocimiento de Patrones
Aplicaciones de las Redes Neuronales Artificilaes Dr. Héctor Allende
Redes Asociativas.
Redes Neuronales Artificiales
Aprendizaje de Agentes II Alberto Reyes Ballesteros Programa ITESM-IIE Doctorado en Ciencias Computacionales.
Perceptrón Multicapa Aplicaciones. Perceptrón Multicapa MLP Latitud Longitud... Altitud Radiación solar Aproximación de funciones MLP Estado de un reactor.
Modelos Computacionales
Redes Competitivas.
Neurona  elemento de proceso Variantes y combinaciones: gran flexibilidad: ¿demasiada? Aprendizaje flexible:  Redes neuronales Respuesta de elemento.
REDES NEURONALES.
Aprendizaje Automatizado
Procesamiento de Imágenes digitales
Redes Neuronales Artificiales 2 - Aprendizaje
Redes Neuronales Artificiales 3 - Perceptrones Dr. Juan José Flores Romero División de Estudios de Posgrado Facultad de Ingeniería Eléctrica
Universidad de los Andes Núcleo Universitario Alberto Adriani Inteligencia Artificial Ingeniería de Sistemas.
2.1 Breve reseña histórica de la Neurocomputación
REDES NEURONALES ARTIFICIALES TEORÍA Y APLICACIONES
Aprendizaje No Supervisado y Redes de Kohonen
Redes Neuronales BPN - Backpropagation Networks
Redes Neuronales Artificiales Entrenamiento por Retropropagación del Error-Backpropagation Dr. Pedro Ponce Cruz EGIA-MCI.
Redes neuronales feed-forward
Sistemas Expertos Integrantes Javier Farfán Katherine Jara Héctor Gatica.
DATA MINING KAROL PARDO MIGUEL VALCERO CORPORACION UNIVERSITARIA MINUTO DE DIOS.
Introducción a los Sistemas Inteligentes
Identificacion con redes neuronales
REDES NEURONALES TEORÍA MODERNA DE LA FIRMA 2010.
Algoritmo de Retropropagación. Notación n i, j, k son índices de las neuronas en las distintas capas.
ESCALAMIENTO MULTIDIMENSIONAL
Redes Neuronales.
DISPOSITIVOS PERIFERICOS

REDES NEURONALES ARTIFICIALES (SOM - Kohonen)
Redes Neuronales Artificiales (ANN)
Unsupervised visual learning of three-dimensional objects using a modular network architecture Ando, Suzuki, Fujita Neural Networks 12 (1999)
Transcripción de la presentación:

Ángel Berihuete Francisco Álvarez Las Redes Neuronales como complemento al Análisis de Componentes Principales Ángel Berihuete Francisco Álvarez

C.P.A. (Transformación Karhunen-Loève) Curso de doctorado 99-00 Principios de 1999 N.N. C.P.A. (Transformación Karhunen-Loève) Problema común en el reconocimiento de patrones estadísticos: Extracción de variables. El espacio de de datos es transformado a un espacio de características. Los datos están representados por el conjunto de variables que aportan mayor información intrínseca Producimos una reducción de la dimensionalidad Distintas topologías de Red Neuronal: Perceptrón (multicapa) S.O.M. Hopfield Aprendizajes: Supervisado No supervisado

Topología de la red Aprendizaje de la red Se actualizan los pesos de la red neuronal para conseguir la función deseada.

Curso de doctorado 00-01 Francisco Álvarez Andrés Jiménez Problema común en el reconocimiento de patrones estadísticos: Extracción de variables. El espacio de de datos es transformado a un espacio de características. El conjunto está representado por el conjunto de variables con mayor información intrínseca Generamos una reducción de la dimensionalidad Distintas topologías de Red Neuronal: Perceptrón (multicapa) S.O.M. Mapas autoorganizados de Kohonen Aprendizajes: Supervisado No supervisado Francisco Álvarez Andrés Jiménez Ángel Berihuete

¡Estamos de enhorabuena! Una sola neurona lineal con un aprendizaje del tipo Hebb para sus pesos, puede evolucionar en un filtro para la primera componente principal de los datos. (Oja, 1982)

Generalización: Algoritmo G.H.A. Red con dos niveles Red Progresiva Cada neurona en la capa de salida es lineal. l < m El aprendizaje es de tipo Hebbian Los pesos tienden a las componentes principales de los datos

Abril de 2001 Implementamos el algoritmo en Matlab 213 100 8 56 25 34 255

¿Cómo aprende la red? 2 iteraciones 100 iteraciones 2000 iteraciones

Reconstruyendo la imagen Ratio de compresión. Error mínimos cuadrados. Almacenamos la matriz de pesos para un una nueva foto. 21 3 100 256 25 69 101 12

Mejora del algoritmo: Filtro de Entropía Seleccionamos los datos que tienen mayor entropía relativa dentro de la imagen. Menor tiempo de computación. Obtenemos un error de mínimos cuadrados menor.

Nuevas líneas de investigación Análisis de Componentes Independientes. Teoría de la información. Programación en hardware paralelo.