REDES NEURONALES ARTIFICIALES (SOM - Kohonen)

Slides:



Advertisements
Presentaciones similares
Mariano Alcántara Eduardo
Advertisements

Introducción a las Redes neuronales
DATA MINING MINERIA DE DATOS Gersom Costas.
Silvana Arias Carla Espinosa Livia Loaiza INGENIERIA EN SISTEMAS
Mapas Autoorganizados
6. Sistemas Autoorganizados
7. Máquinas Estocásticas
Autora: Carmen Alonso Montes Director: Manuel González Penedo
Data Mining Integrantes: Rojas Correa, Trinidad Romanskyy, Bohdan
Redes neuronales2 José Edinson Aedo Cobo Depto. de Ing. Electrónica.
RECONOCIMIENTO DE OBJETOS
Clustering (Agrupamiento)
Distribuciones muestrales Procedimientos de muestreo
APRENDIZAJE WIDROW- HOFF
El Perceptrón  El psicólogo Frank Ronsenblant desarrolló un modelo simple de neurona basado en el modelo de McCulloch y Pitts que utilizaba.
Inteligencia Artificial (BAIA)  Se propone lograr que las computadoras se comporten de manera que podamos reconocerlas como inteligentes.  Tiene por.
FUNDAMENTOS DE DATA MINING Y SUS APLICACIONES N. QUEIPO, S. PINTOS COPYRIGHT 2000 CLASIFICACIÓN NO SUPERVISADA.
RECONOCIMIETO DE PATRONES
Diplomado "Gestión de Negocios con Data Warehouse y Data Mining".
Inferencia Estadística
Introducción Calculabilidad clásica Computación celular
Aprendizaje Automático en Bioinformática
Estadística aplicada al análisis financiero
Redes Neuronales Monocapa
El Perceptrón Multicapa
ANÁLISIS DE CONGLOMERADOS
Ejemplo de aplicación de las ANN
Image Processing Using FL and ANN Chapter 10 Dr. Mario Chacón DSP & Vision Lab.
1 Problema no separable linealmente Se busca obtener un algoritmo más general que permita integrar el aprendizaje entre las dos capas.
Redes Neuronales Artificiales Autoorganizadas
Tipos de redes neuronales Perceptrón multicapa Redes de respuesta radial Competitivas Clasificación Mapa topológico.
Integrantes: Daniel Peña Alfredo Zuñiga
TEORÍA MODERNA DE LA FIRMA1. 2 RNA SOLUCIÓN PROBLEMAS COMPLEJOS RECONOCIMIEN TO DE FORMAS Y PATRONES CONTROL Y OPTIMIZACIÓN PREDICCIÓN Y CODIFICACIÓN.
3. Funciones discriminantes para la f.d.p normal.
Técnicas Supervisadas Aproximación no paramétrica
Reconocimiento de Patrones
Combinación de Clasificadores
Redes Asociativas.
Flujo Eléctrico El campo eléctrico debido a una distribución continua de cargas siempre puede calcularse a partir del campo generado por una carga puntual,
EXTRACCIÓN DE CARACTERISTICAS
Capitulo 3 Segmentación.
MÉTODO DE PIXELES DE BORDE
Modelos Computacionales
Redes Competitivas.
Técnicas Supervisadas Aproximación no paramétrica Reconocimiento de Patrones 2003 Notas basadas en el curso Reconocimiento de Formas de F.Cortijo, Univ.
REDES NEURONALES.
ESCUELA SUPERIOR POLITECNICA DE CHIMBORAZO FACULTAD DE INFORMATICA Y ELECTRONICA ESCUELA DE DISEÑO GRAFICO ESTADISTICA TEMA: estadista, entendimiento.
Redes Neuronales Artificiales
Aprendizaje Automatizado
Redes Neuronales Artificiales 2 - Aprendizaje
Tema 3: Filtros.
Una aproximación a la visión
REDES NEURONALES ARTIFICIALES TEORÍA Y APLICACIONES
Capítulo 1. Conceptos básicos de la Estadística
Analisis de datos en imagenes hiperespectrales: intro 1 Analisis de datos hiperespectrales: otra revisión Hyperespectral image data analysis, D. Landgrebe,
Sabemos reconocerlas, y calcularlas como soluciones de sistemas de ecuaciones, o de desigualdades Buscamos métodos de cálculo generales y eficientes Problemas.
Aprendizaje No Supervisado y Redes de Kohonen
Redes Neuronales BPN - Backpropagation Networks
Redes Neuronales Artificiales Entrenamiento por Retropropagación del Error-Backpropagation Dr. Pedro Ponce Cruz EGIA-MCI.
DATA MINING KAROL PARDO MIGUEL VALCERO CORPORACION UNIVERSITARIA MINUTO DE DIOS.
REDES NEURONALES TEORÍA MODERNA DE LA FIRMA 2010.
2.1 DEFINICIONES CARACTERÍSTICAS Y SUPOSICIONES.
Septiembre  Responde a quienes y cuantas personas se aplicará el instrumento de recolección de datos.
ESCALAMIENTO MULTIDIMENSIONAL
Aplicación JAVA implementando Arboles de Decisión
Ángel Berihuete Francisco Álvarez
Rafael Zamora Garrido Julio Ejemplos de objetivos de Minería de Datos Reducir las bajas de clientes actuales en un 5%. Aumentar las contrataciones.
Unsupervised visual learning of three-dimensional objects using a modular network architecture Ando, Suzuki, Fujita Neural Networks 12 (1999)
SOM: Modelos de mapas Auto-organizativos
Redes Auto-organizadas
Transcripción de la presentación:

REDES NEURONALES ARTIFICIALES (SOM - Kohonen)

Clasificación de los Modelos Neuronales

Modelos Neuronales No Supervisados o Autoorganizados Se caracterizan por que en su entrenamiento no se presentan las salidas objetivo que se desean asociar a cada patrón de entrada. La principal aplicación de estos modelos es el agrupamiento de patrones o (clustering), análisis exploratorio y minería de datos (data minig).

Modelos Neuronales No Supervisados o Auto-organizados Redes no supervisadas competitivas Solamente una neurona (o grupo de vecinas) puede quedar finalmente activadas. La base de la operación de estos modelos es la competencia entre las neuronas, materializada en inhibiciones laterales. Redes WTA (winner-take-all). Durante la fase de aprendizaje las neuronas ganadoras obtienen como premio el refuerzo de sus conexiones sinápticas. Comportamiento básico en muchos de los modelos auto-organizados mas conocidos (ART, Neo-cognitron y Mapas Auto-organizados de Kohonen).

Modelo de Mapas Auto-organizados (KOHONEN) Es uno de los modelos de RNA Auto-organizadas unidireccionales mas conocidos y empleados. Ilustran muy bien la operación de otras arquitecturas no supervisadas. Los mapas auto-organizados de Kohonen o SOFM (Self-Organizing Feature Maps) intentan modelar, de forma sencilla, las redes neuronales naturales.

Modelo de Mapas Auto-organizados (KOHONEN) Los SOFM poseen una gran cantidad de aplicaciones practicas, por ejemplo: Clasificación de patrones. Cuantificación vectorial. Reducción de dimensiones. Extracción de rasgos. Monitorización de procesos. Análisis exploratorio. Visualización. Minería de datos.

Modelo de Mapas Auto-organizados (KOHONEN) En este modelo las neuronas se organizan en una arquitectura unidireccional de dos capas. La primera es la capa de entrada o sensorial, que consiste en m neuronas, una por cada variable de entrada. Las entradas son muestras del espacio sensorial. La segunda es la capa de procesamiento, consiste habitualmente en una estructura rectangular n(x)Xn(y) neuronas que operan en paralelo.

Modelo de Mapas Auto-organizados (KOHONEN)

Modelo de Mapas Auto-organizados (KOHONEN)

Modelo de Mapas Auto-organizados (KOHONEN) Fase de ejecución (operación normal de la red) Los pesos permanecen fijos. Cada neurona (i, j) calcula la similitud entre el vector de entrada X y su propio vector de pesos sinápticos, según una cierta medida de distancia o criterio de similitud. Se declara vencedora la neurona, cuyo vector de pesos sinápticos es similar al vector de entrada.

Modelo de Mapas Auto-organizados (KOHONEN) Fase de aprendizaje Se presenta un vector de entradas X(t). La neurona vencedora modifica sus pesos de tal manera que se parezca mas a X(t). El proceso se repite para numerosos patrones de entrada, de forma que al final se tiende a representar la función de probabilidad p(X) (o función de distribución) del espacio sensorial. Si el espacio sensorial esta dividido en grupos, cada neurona se especializa en uno de ellos, y la operación esencial de la red se pude interpretar entonces como un análisis clúster.

Modelo de Mapas Auto-organizados (KOHONEN) Este modelo también incorpora al esquema relaciones entre neuronas próximas en el mapa. Para ello introduce una función de vecindad. El efecto de la función de vecindad es que durante el proceso de aprendizaje se actualizan tanto los pesos de la neurona vencedora como los de las neuronas pertenecientes a su entorno. De esta manera se refleja sobre el mapa una cierta imagen del orden topológico presente en el espacio de entrada (ordenación de los detectores de rasgos).

Modelo de Mapas Auto-organizados (KOHONEN) Un algoritmo de aprendizaje autoorganizado habitual 1. Inicialización de pesos sinapticos Wijk: en t=0 se puede partir de pesos nulos, aleatorios pequeños (lo mas habitual) o con pesos de partida predeterminados. Para cada iteración 2. Presentación de patrones X(t): cuando disponemos de un conjunto finito de patrones de entrenamiento (lo mas habitual), basta con tomar al azar un patrón y presentarlo a la red.

Modelo de Mapas Auto-organizados (KOHONEN) 3. Calcular similitud: cada neurona i = (i, j) calcula la similitud entre el vectores de entradas y el vector de pesos sinápticos. Un criterio de medida muy utilizado es la distancia euclidiana: 4. Determinación de la neurona ganadora: se selecciona la neurona, cuya la distancia sea la menor de todas. 5. Actualización de los pesos sinápticos de la neurona ganadora y los de las neuronas vecinas: la regla de aprendizaje mas empleadas es:

Modelo de Mapas Auto-organizados (KOHONEN) Wijk(t): Pesos sináptico entre la neurona de entrada k y la neurona de salida (i, j), en la iteración actual. Wijk(t+1): Pesos sináptico entre la neurona de entrada k y la neurona de salida (i, j), para la siguiente iteración. : Ritmo de aprendizaje. h(.): funcion de vecindad. Es la encargada de definir que neuronas son las vecinas de la actualmente ganadora. Esta función depende de la distancia de la neurona i=(i, j) y la ganadora g=(g1, g2) , valiendo cero cuando la neurona i no pertenece a la vecindad de g (con lo que sus pesos no son actualizados, y un numero positivo cuando si pertenece (sus pesos si son modificados).

Modelo de Mapas Auto-organizados (KOHONEN) 6. Si se ha alcanzado el numero máximo de iteraciones establecido, entonces el proceso de aprendizaje finaliza. En caso contrario se vuelve al paso 2. El numero de iteraciones debe ser suficientemente grande, así como proporcional al numero de neuronas del mapa (a mas neuronas, es necesario mas iteraciones), e independiente del número de componentes de X. Aunque 500 iteraciones por neurona es una cifra adecuada, de 50 a 100 suelen ser suficientes para la mayor parte de los problemas.

Modelo de Mapas Auto-organizados (KOHONEN) Interpretación del algoritmo de aprendizaje Operación de la misma regla de aprendizaje para el caso de varios patrones pertenecientes al espacio de entrada, representados por vectores de trazo continuo.

Modelo de Mapas Auto-organizados (KOHONEN) Existen diferentes formas de la función vecindad. En general h(.) decrece con la distancia de la vencedora.

Modelo de Mapas Auto-organizados (KOHONEN) La función de vecindad mas simple es del tipo escalón, que denominaremos rectangular.

Modelo de Mapas Auto-organizados (KOHONEN) Si utilizamos la función de vecindad rectangular, una neurona i pertenece a la vecindad de la ganadora solamente si su vecindad es inferior a R(t). Con este tipo de función la vecindad adquiere forma circular de bordes nítidos, en torno a la vencedora.

Modelo de Mapas Auto-organizados (KOHONEN) Si utilizamos la función de vecindad rectangular la regla de aprendizaje se reduce a: Por lo que en cada iteración solo se actualizan las neuronas que distan de la vencedoras menos de R(t).

Modelo de Mapas Auto-organizados (KOHONEN) Si utilizamos funciones de vecindad gaussianas o en forma de sombrero mexicano, establecemos niveles de pertenencia en lugar de fronteras nítidas.

Aplicaciones del Modelo de Mapas Auto-organizados (KOHONEN) Análisis de datos y monitorización de la crisis Estudio sobre la crisis bancaria española de 1977-1985. Haciendo uso de 9 ratios pertenecientes a 66 entidades financieras de la época.

Aplicaciones del Modelo de Mapas Auto-organizados (KOHONEN) Análisis de datos y monitorización de la crisis 37 entidades financieras eran solventes 29 quebradas

Aplicaciones del Modelo de Mapas Auto-organizados (KOHONEN) Análisis de datos y monitorización de la crisis Se entreno un mapa autoorganizado de 14 * 14 neuronas. El resultado del aprendizaje debe ser la especialización de cada neurona hacia algún tipo de banco. El empleo de un mapa con mayor numero de neuronas (196) que patrones de entrenamiento (66) tendrá como resultado que los 66 bancos queden distribuidos (proyectados) por su superficie con cierta separación.

Aplicaciones del Modelo de Mapas Auto-organizados (KOHONEN) Análisis de datos y monitorización de la crisis El resultado final muestra que neurona responde con mas intensidad ante cada patrón. Con trazo ancho los bancos quebrados.

Aplicaciones del Modelo de Mapas Auto-organizados (KOHONEN) Análisis de datos y monitorización de la crisis Suele resultar muy útil delimitar regiones. Por ejemplo, se han etiquetado como neurona de quiebra (oscura) o de solvencia (clara)

Aplicaciones del Modelo de Mapas Auto-organizados (KOHONEN) Análisis de datos y monitorización de la crisis También es posible realizar la monitorización de la evolución temporal del estado financiero de una entidad, solo con proporcionarle como entradas los ratios financieros a lo largo de un periodo de tiempo