Descargar la presentación
La descarga está en progreso. Por favor, espere
Publicada porÁngel Alcaraz Villanueva Modificado hace 9 años
1
Redes Neuronales Artificiales 2 - Aprendizaje
Dr. Juan José Flores Romero División de Estudios de Posgrado Facultad de Ingeniería Eléctrica
2
Curso Redes Neuronales Artificiales
CONTENIDO Introducción Aprendizaje Perceptrones mono-nivel Perceptrones multi-nivel Otras Arquitecturas
3
Redes Neuronales Artificiales
RNA: Habilidad de aprender del medio ambiente y mejorar su desempeño por medio del aprendizaje. Aprendizaje: Proceso por el cual los parámetros (pesos sinápticos) de una RNA se adaptan por estimulación del medio ambiente. Algoritmo de Aprendizaje: Conjunto bien definido de reglas para actualizar los pesos sinápticos. Paradigma de Aprendizaje: Modelo del medio ambiente en el cual la RNA opera.
4
Algoritmos de Aprendizaje
Corrección de Error Basado en Memoria Hebbian Competitivo Boltzmann
5
Paradigmas de Aprendizaje
Supervizado No Supervisado Por Refuerzos
6
Tareas de Aprendizaje Asociación de Patrones
Reconocimiento de Patrones Aproximación Funcional Control Filtrado
7
Algoritmos de Aprendizaje Corrección de Error
ek(n) = dk (n) – yk (n) E(n) = ½ ek(n) 2 — Error Energy wkj (n) = ek(n) xj(n) — Delta Rule (Widrow-Hoff) wkj (n+1) = wkj (n) + wkj (n)
8
Algoritmos de Aprendizaje Basado en Memoria
Almacenar ejemplos entrada – salida {(xi, di)} i=1, .., N Ejemplo: Clasificación binaria Clases: C1 y C2 xtest (nuevo) es clasificado examinando su vecindad
9
Algoritmos de Aprendizaje Basado en Memoria
Componentes: Criterio para definir vecindad Regla de aprendizaje Ejemplo: Vecino más Cercano (Nearest Neighbor) x* e {x1, x2, .., xN} es el vmc de xtest si Mini d(xi, xtest ) = d(x*, xtest ) Donde d(xi, xtest ) es la distancia Euclideana
10
Algoritmos de Aprendizaje Basado en Memoria
k Vecinox más Cercanos: Identificar los k vecinos mas cercanos a xtest Asignar a xtest la clase más común en sus k vecinos más cercanos
11
Algoritmos de Aprendizaje Hebbian
Si dos neuronas vecinas se activan simultaneamente, el peso de su conexión se incrementa. Si dos neuronas vecinas se activan asíncronamente, la conexión se debilita o elimina. La conexión se llama sinapsis hebbiana
12
Algoritmos de Aprendizaje Hebbian
Mecanismos en aprendizaje hebbiano Dependiente del Tiempo. Aprendizaje depende de los tiempos de activación. Local. Activaciones Espacio-Temporales. Interactivo. Depende de la interacción entre neuronas vecinas. Conjuncional (correlacional). La co-ocurrencia de señales produce una modificación de pesos.
13
Algoritmos de Aprendizaje Hebbian
wkj – peso sináptico xj– señal presináptica yk– señal postsináptica wkj (n) = F(yk(n), xj(n)) wkj (n) = yk(n) xj(n) — Hebb´s hypothesis wkj (n) = (yk-yav) (xj(n)-xav) — Covariance Hypothesis
14
Algoritmos de Aprendizaje Competitivo
Las neuronas de salida compiten para activarse. Solo una neurona de salida estará activa a la vez. Usadas en clasificación.
15
Algoritmos de Aprendizaje Competitivo
yk= 1 si vk> vj jk yk= 0 otro caso i wkj = 1 k wkj = (xj – wkj) si k gana wkj = 0 si k pierde
16
Algoritmos de Aprendizaje Boltzmann
Estructura recurrente Estados: 1 y -1 E = - ½ j k wkjxkxj para j k — Energy Seleccionar neurona k aleatoriamente Cambiar su estado a temperatura T con probabilidad wkj = (kj+ – kj-) para j k
17
Algoritmos de Aprendizaje Boltzmann
Neuronas: Fijas (entradas) Libres Utilizadas para modelar (aprender) una distribución de probabilidad de los datos de entrada. Completan entradas incompletas.
18
Paradigmas de Aprendizaje Supervizado
19
Paradigmas de Aprendizaje Por Refuerzos
Minimizar un índice escalar de aptitud Refuerzo retardado Asignación de Crédito y Culpa a acciones Aprende a realizar tareas basado solamente en el resultado de sus experiencias
20
Paradigmas de Aprendizaje No Supervizado
Auto-organizado Medida de calidad de representación, independiente del contexto Los parámetros son optimizados con respecto a esa medida Clasificación
21
Tareas de Aprendizaje Asociación de Patrones
Memoria Asociativa Almacenar Patrones Patrones con ruido Recordar patrones xk yk, k=1, 2, ... , q Autoasociativo: xk = yk Heteroasociativo: xk yk Meta de Diseño: Recordar + patrones con - neuronas
22
Tareas de Aprendizaje Reconocimiento de Patrones
Clasificación
23
Tareas de Aprendizaje Aproximación Funcional
d = f(x) T = {(xi, di)}, i=1, ..., N F aproximación de f Meta: F(x) – f(x)<, x
24
Tareas de Aprendizaje Control
d = f(x) T = {(xi, di)}, i=1, ..., N F aproximación de f Meta: F(x) – f(x)<, x
25
Tareas de Aprendizaje Filtrado
Filtrado. Extracción de información de una variable en el tiempo discreto n, usando mediciones hasta n. Smoothing. Filtrado con retardo. Predicción. Derivar información acerca del futuro de una variable, usando información pasada.
26
Tareas de Aprendizaje Filtrado
Problema del Cocktail. Predicción no Lineal.
27
Ejercicios (Reglas de Aprendizaje)
28
Ejercicios (Reglas de Aprendizaje)
29
Ejercicios (Reglas de Aprendizaje)
30
Ejercicios (Paradigmas de Aprendizaje)
Presentaciones similares
© 2024 SlidePlayer.es Inc.
All rights reserved.