REDES NEURONALES ARTIFICIALES TEORÍA Y APLICACIONES

Slides:



Advertisements
Presentaciones similares
Valores y vectores propios
Advertisements

INTRODUCCION A TECNICAS DE MINERIA DE DATOS
CINEMATICA LINEAL.
Mapas Autoorganizados
6. Sistemas Autoorganizados
7. Máquinas Estocásticas
Autora: Carmen Alonso Montes Director: Manuel González Penedo
Bivariadas y Multivariadas
REDES NEURONALES Universidad Autónoma del estado de hidalgo
Instituto tecnológico de Villahermosa
Ingeniería Matemática
Red Neuronal de Contrapropagación
Redes basadas en competición
KRIGING.
Investigación Operativa
Clustering (Agrupamiento)
APRENDIZAJE WIDROW- HOFF
El Perceptrón  El psicólogo Frank Ronsenblant desarrolló un modelo simple de neurona basado en el modelo de McCulloch y Pitts que utilizaba.
MINISTERIO DE EDUCACI Ó N NACIONAL COLOMBIA APRENDE HíBRIDO ENTRE UNA RED NEURONAL Y UN MODELO ARIMA PARA LA ESTIMACI Ó N DE PRECIOS DE LOS VEHíCULOS EN.
Estadística Descriptiva: 4. Correlación y Regresión Lineal
Codificación Distribuida
Ecuaciones diferenciales
Unidad 2: ECUACIONES DIFERENCIALES DE ORDEN SUPERIOR
INTRODUCCIÓN A REDES NEURONALES ARTIFICIALES TEORÍA Y APLICACIONES
ARQUITECTURAS SIMD TIPOS
TRANSFORMACIONES LINEALES PARA REDES NEURALES ARTIFICIALES
Introducción Calculabilidad clásica Computación celular
Redes Neuronales Monocapa
Ejemplo de aplicación de las ANN
1 Problema no separable linealmente Se busca obtener un algoritmo más general que permita integrar el aprendizaje entre las dos capas.
Redes Neuronales Artificiales Autoorganizadas
1 Asignatura: Autor: Análisis Numérico César Menéndez Titulación: Planificación: Materiales: Conocimientos previos: Aproximación Ingeniero Técnico Informático.
Tipos de redes neuronales Perceptrón multicapa Redes de respuesta radial Competitivas Clasificación Mapa topológico.
A x + B y + C z + D = 0 Departamento de Matemáticas
Vectores Aleatorios 1 Distribución conjunta de un vector aleatorio
Aplicaciones de las Redes Neuronales Artificilaes Dr. Héctor Allende
Redes Asociativas.
Modelos Computacionales
Redes Competitivas.
REDES NEURONALES.
Capítulo 7 Estimación de Parámetros Estadística Computacional
Ecuaciones diferenciales de orden superior
Redes Neuronales Artificiales
Raúl Monroy (de las notas de Jane Hilston)
CONCEPTOS BÁSICOS DE MECÁNICA CUÁNTICA
Redes Neuronales Artificiales 2 - Aprendizaje
Econometría Procesos Estocásticos Capitulo IV
Aprendizaje No Supervisado y Redes de Kohonen
Simulación/2002 Héctor Allende Capítulo 8 Modelos de Datos de Entrada Departamento de Informática Universidad Técnica Federico Santa María.
TEMA 5: El problema del flujo con costo mínimo
MAXIMOS Y MINIMOS Cálculo Diferencial Fuan Evangelista Tutor
Redes Neuronales BPN - Backpropagation Networks
Redes neuronales feed-forward
Algoritmo de Retropropagación. Conclusiones de Retropropagación n 1. Si la neurona j es un nodo de salida es igual al producto de la derivada y la señal.
REDES NEURONALES TEORÍA MODERNA DE LA FIRMA 2010.
BASES DE UN ESPACIO VECTORIAL
2.1 DEFINICIONES CARACTERÍSTICAS Y SUPOSICIONES.
VECTORES RECTAS.
ESCALAMIENTO MULTIDIMENSIONAL
Ángel Berihuete Francisco Álvarez
6. Sistemas de ecuaciones diferenciales lineales
UNSa Sede Regional Oran TEU - TUP. Un espacio vectorial (o espacio lineal) es el objeto básico de estudio del álgebra lineal.álgebra lineal A los elementos.
OPTIMIZACION DEL DESEMPEÑO DE ERROR
Tema 4 : Cálculo de raíces de ecuaciones no lineales
Departamento de Informática Universidad Técnica Federico Santa María EconometríaEconometría Capitulo II.
Tema 3: Sistemas de ecuaciones lineales. Métodos iterativos
Definición. Una Cola es una línea de espera y la teoría de colas es una colección de modelos matemáticos que describen sistemas de líneas de espera particulares.
REDES NEURONALES ARTIFICIALES (SOM - Kohonen)
Redes Neuronales Artificiales (ANN)
Redes Auto-organizadas
Transcripción de la presentación:

REDES NEURONALES ARTIFICIALES TEORÍA Y APLICACIONES Dr. Héctor Allende Departamento de Informática Universidad Técnica Federico Santa María

SOM/KOHONEN Network Mapas Autoorganizativos Capítulo 3 SOM/KOHONEN Network Mapas Autoorganizativos Profesor: Dr. Héctor Allende Redes Neuronales Artificiales

Redes Neuronales Artificiales Estructura de la Red SOM (Self-Organization Map o Kohonen Network) Teuvo Kohonen Rev. Information Science(1984) Red de aprendizaje no supervisado. Posee una única capa, la capa de salida. Posee un feedback lateral. En general es de forma indirecta ( tipo “Sombrero Mejicano”). Consiste en K neuronas. Puede ser unidimensional (K) o multidimensional ( KxK). La capa adicional de entrada solo distribuye la entrada en la capa de salida. Consiste en N neuronas (dimensión de la entrada). No hay procesamiento Profesor: Dr. Héctor Allende Redes Neuronales Artificiales

Estructura de la red de Kohonen Profesor: Dr. Héctor Allende Redes Neuronales Artificiales

Redes Neuronales Artificiales Sombrero mejicano Las Neuronas cercanas reciben un feedback (+) Las Neuronas a mediana distancia reciben feedback (-). Las Neuronas lejanas no son afectadas. Profesor: Dr. Héctor Allende Redes Neuronales Artificiales

Redes Neuronales Artificiales Estructura de la Red. Obervaciones: La distancia entre neuronas es discreta. 0 para la neurona misma, 1 para las neuronas más cercanas etc. La función de feedback determina la velocidad de aprendizaje. Vecindad Neuronal: Area afectada por el feedback lateral. Para grandes vecindades, la distancia puede considerarse función continua. Profesor: Dr. Héctor Allende Redes Neuronales Artificiales

El Proceso de aprendizaje Matriz de pesos: Vector de entrada: Entrada es una función paramétrizada x = x(t) Entrada total: a = W x La neurona k que tiene un peso asociado tal que: se declara ganadora. Profesor: Dr. Héctor Allende Redes Neuronales Artificiales

Proceso de aprendizaje Todas las neuronas incluidas en la vecindad neuronal incluida ella misma participan en el proceso de aprendizaje. Las otras neuronas no son afectadas. El proceso de aprendizaje consiste en cambiar el vector de pesos en la dirección del vector de entrada (feedback positivo). Existe también un proceso de olvido proceso que retarda el progreso (feedback negativo) Profesor: Dr. Héctor Allende Redes Neuronales Artificiales

Proceso de aprendizaje Aprendizaje lineal: cambios ocurren en direccion de la combinación lineal de X y W(j,:) para cada neurona: donde  y  son funciones escalares (no lineales).  : feedback positivo : feedback negativo A continuación se considera que la vecindad neuronal es toda la red. Profesor: Dr. Héctor Allende Redes Neuronales Artificiales

Redes Neuronales Artificiales Tipos de aprendizaje La ecuacion diferencial Trivial: Para t, W(j,:) es un promedio exponencialmente ponderado de X. Profesor: Dr. Héctor Allende Redes Neuronales Artificiales

Redes Neuronales Artificiales Tipos de Aprendizaje La ecuación simple: Profesor: Dr. Héctor Allende Redes Neuronales Artificiales

Redes Neuronales Artificiales Tipos de Aprendizaje La Solución de la ecuación simple: La solución puede ser divergente o convergente a cero, casos ambos casos son inaceptables. Para tiempos cortos la solución se aproxima a procesos asintóticamente estables. Para t ;  relativamente pequeños y 0: Profesor: Dr. Héctor Allende Redes Neuronales Artificiales

Redes Neuronales Artificiales Tipos de Aprendizaje La Ecuación diferencial de Riccati: Profesor: Dr. Héctor Allende Redes Neuronales Artificiales

Redes Neuronales Artificiales Tipos de Aprendizaje Ecuación de Riccati: Proposición: Considerando un acercamiento estadístico a la ecuación de Riccati, si una existe solución, la solución de W es de la forma: Todo W(j,:) llega a estar paralelo a <x> y tendrá la norma Profesor: Dr. Héctor Allende Redes Neuronales Artificiales

Redes Neuronales Artificiales Tipos de Aprendizaje Ecuaciones más generales: Teorema: Sea  > 0, a =Wx y (a) una función arbitraria tal que E{(a)|W} existe. Sea x = x(t) un vector con propiedades estadísticas estacionarias (e independiente de W). Entonces, si el proceso de aprendizaje es del tipo: tiene soluciones W acotada para t, entonces debe tener la forma: donde <x> es la esperanza de x(t). ie., W(j,:) llega a ser paralelo a <x> Profesor: Dr. Héctor Allende Redes Neuronales Artificiales

Redes Neuronales Artificiales Tipos de Aprendizaje Teorema: Sea  > 0, a = Wx y (a) una función arbitraria tal que E{(a)|W} existe. Sea <xxT>=E{xxT|W}. Sea max=máxl l el valor propio máximo de < xxT > y umax el vector propio asociado. Entonces, si el proceso de aprendizaje es del tipo: tiene soluciones no triviales W acotada para t, entonces debe tener la forma: donde Wumax Ô, W(0) = W0 ; ie, W(j,:) llega a ser paralelo a umax Profesor: Dr. Héctor Allende Redes Neuronales Artificiales

Redes Neuronales Artificiales Dinámica de la Red Función de ejecución de la red: Para cada vector de entrada X , la neurona k para la cual se declara ganadora. El ganador es usado para decidir que pesos serán cambiados. Todas las neuronas pertenecientes a la vecindad neuronal participan en el aprendizaje. Profesor: Dr. Héctor Allende Redes Neuronales Artificiales

Redes Neuronales Artificiales Dinámica de la Red Función de aprendizaje de la red: El proceso de aprendizaje es no-supervisado. El aprendizaje se desarrolla en tiempo discreto. W=W(t) En t = 0 los pesos son inicializados con valores aleatorios pequeños W(0) = W0 . Los pesos se actualizan de la siguiente forma: Para x(t) encontrar la neurona ganadora k. Actualizar los pesos según modelo elegido: Profesor: Dr. Héctor Allende Redes Neuronales Artificiales

Redes Neuronales Artificiales Dinámica de la Red Inicialización y condición de parada: Los pesos son inicializados con valores aleatorios pequeños. La condición de parada del proceso de aprendizaje puede ser: Elegir un número fijo de pasos. El proceso de aprendizaje continúa hasta que la cantidad de ajuste: wji= wji(t+1)-wji (t)  Profesor: Dr. Héctor Allende Redes Neuronales Artificiales

Redes Neuronales Artificiales El Algoritmo Para toda las neuronas en la capa de salida: inicializar los pesos con valores aleatorios Si se trabaja con vectores normalizados, Normalizar vectores Elegir el modelo de aprendizaje ( Ecuación diferencial) Elegir un modelo de vecino neuronal ( fu. de feedback lateral). Elegir condición de parada. Construir a partir de la ED, la fórmula de adaptación de los pesos. Considerando tiempo discreto, repetir los pasos anteriores hasta que la condición de parada se cumpla: Tomar la entrada x(t) Para todas las neuronas j en la capa de salida, encontrar la ganadora. Conociendo la ganadora, actualizar los pesos. Profesor: Dr. Héctor Allende Redes Neuronales Artificiales

Fórmula de adaptación de pesos La ecuacion diferencial Trivial: Para t, W(j,:) es un promedio exponencialmente ponderado de X. Profesor: Dr. Héctor Allende Redes Neuronales Artificiales

Fórmula de adaptación de pesos La ecuación Trivial: Profesor: Dr. Héctor Allende Redes Neuronales Artificiales