Redes Neuronales Artificiales 2 - Aprendizaje

Slides:



Advertisements
Presentaciones similares
Data Mining Minería de Datos Universidad Tecnológica Metropolitana
Advertisements

S ISTEMAS EXPERTOS BASADOS EN R EDES N EURONALES.
Modelos de frecuencia de disparo
INTRODUCCION A TECNICAS DE MINERIA DE DATOS
SISTEMAS INTELIGENTES
Redes Neuronales Artificiales
Introducción a las Redes neuronales
Introducción a la minería de datos
DATA MINING MINERIA DE DATOS Gersom Costas.
Silvana Arias Carla Espinosa Livia Loaiza INGENIERIA EN SISTEMAS
6. Sistemas Autoorganizados
7. Máquinas Estocásticas
REDES NEURONALES.
K-NN: K vecinos más cercanos
PROYECTO DE GRADO CARLOS STALIN ALVARADO SANCHEZ
Redes neuronales2 José Edinson Aedo Cobo Depto. de Ing. Electrónica.
Especialista en Business Intelligence Analysis Services SSAS (Sesión 14) Microsoft SQL Server 2008 R2 Suscribase a o escríbanos a
Clustering (Agrupamiento)
APRENDIZAJE WIDROW- HOFF
El Perceptrón  El psicólogo Frank Ronsenblant desarrolló un modelo simple de neurona basado en el modelo de McCulloch y Pitts que utilizaba.
Redes Neuronales Artificiales Tarea 4 Regla Delta Redes Neuronales Artificiales Tarea 4 Regla Delta Dr. Juan José Flores Romero División de Estudios de.
Inteligencia Artificial (BAIA)  Se propone lograr que las computadoras se comporten de manera que podamos reconocerlas como inteligentes.  Tiene por.
REDES NEURONALES ARTIFICIALES
Seminario Científico Internacional 2008 de invierno (SCI 2008i) - Francisco García Fernández. Dr. Ingeniero de Montes - Luis García Esteban. Dr. Ingeniero.
Representación del Conocimiento
INTRODUCCIÓN A REDES NEURONALES ARTIFICIALES TEORÍA Y APLICACIONES
LENGUAS ELECTRÓNICAS.
Diplomado "Gestión de Negocios con Data Warehouse y Data Mining".
Introducción Calculabilidad clásica Computación celular
Redes Neuronales Monocapa
Ejemplo de aplicación de las ANN
1 Problema no separable linealmente Se busca obtener un algoritmo más general que permita integrar el aprendizaje entre las dos capas.
Un ejemplo ilustrativo
Redes Neuronales Artificiales Autoorganizadas
Tipos de redes neuronales Perceptrón multicapa Redes de respuesta radial Competitivas Clasificación Mapa topológico.
RESUMEN En este artículo se describe en forma breve una de las líneas de investigación que se están llevando a cabo en el Laboratorio de Tecnologías Emergentes.
Sesión 6: Campos de Markov
Aplicaciones de las Redes Neuronales Artificilaes Dr. Héctor Allende
Redes Neuronales Artificiales Tarea 5 BackPropagation I Redes Neuronales Artificiales Tarea 5 BackPropagation I Dr. Juan José Flores Romero División de.
Redes Neuronales Artificiales Tarea 6 BackPropagation II Redes Neuronales Artificiales Tarea 6 BackPropagation II Dr. Juan José Flores Romero División.
Combinación de Clasificadores
Redes Asociativas.
Redes Neuronales Artificiales
Aprendizaje de Agentes II Alberto Reyes Ballesteros Programa ITESM-IIE Doctorado en Ciencias Computacionales.
Modelos Computacionales
Redes Competitivas.
Neurona  elemento de proceso Variantes y combinaciones: gran flexibilidad: ¿demasiada? Aprendizaje flexible:  Redes neuronales Respuesta de elemento.
REDES NEURONALES.
Practica 4 supercomputadoras.
EL APRENDIZAJE El aprendizaje es el proceso a través del cual se adquieren o modifican habilidades, destrezas, conocimientos, conductas o valores como.
Instrumentación Electrónica: Introducción
Redes Neuronales Artificiales
Aprendizaje Automatizado
Una introducción a la computación evolutiva
Modelado e Identificación de Sistemas Complejos (Un enfoque de IA) Dr. Juan José Flores Romero División de Estudios de Posgrado Facultad de Ingeniería.
Redes Neuronales Artificiales 3 - Perceptrones Dr. Juan José Flores Romero División de Estudios de Posgrado Facultad de Ingeniería Eléctrica
REDES NEURONALES ARTIFICIALES TEORÍA Y APLICACIONES
Redes Neuronales BPN - Backpropagation Networks
Redes Neuronales Artificiales Entrenamiento por Retropropagación del Error-Backpropagation Dr. Pedro Ponce Cruz EGIA-MCI.
Redes neuronales feed-forward
Algoritmo de Retropropagación. Conclusiones de Retropropagación n 1. Si la neurona j es un nodo de salida es igual al producto de la derivada y la señal.
Redes Neuronales Artificiales Tarea 1 Simulación de OR con una Sola Neurona Redes Neuronales Artificiales Tarea 1 Simulación de OR con una Sola Neurona.
REDES NEURONALES TEORÍA MODERNA DE LA FIRMA 2010.
Desde el principio de la humanidad se soñó con el desarrollo de máquinas que puedan imitar la capacidad de aprendizaje del hombre. Actualmente es un desafío.
Ángel Berihuete Francisco Álvarez
Redes Neuronales.

REDES NEURONALES ARTIFICIALES (SOM - Kohonen)
PROGRAMA DE INNOVACIÓN Y DESARROLLO TECNOLÓGICO PRODUCTIVO – CONVENIO : SENA-NEW STETIC Proyecto: Sistema de visión industrial para inspección.
Redes Neuronales Artificiales
Transcripción de la presentación:

Redes Neuronales Artificiales 2 - Aprendizaje Dr. Juan José Flores Romero División de Estudios de Posgrado Facultad de Ingeniería Eléctrica juanf@zeus.umich.mx http://lsc.fie.umich.mx/~juan/ http://lsc.fie.umich.mx/~juan/Materias/ANN

Curso Redes Neuronales Artificiales CONTENIDO Introducción Aprendizaje Perceptrones mono-nivel Perceptrones multi-nivel Otras Arquitecturas

Redes Neuronales Artificiales RNA: Habilidad de aprender del medio ambiente y mejorar su desempeño por medio del aprendizaje. Aprendizaje: Proceso por el cual los parámetros (pesos sinápticos) de una RNA se adaptan por estimulación del medio ambiente. Algoritmo de Aprendizaje: Conjunto bien definido de reglas para actualizar los pesos sinápticos. Paradigma de Aprendizaje: Modelo del medio ambiente en el cual la RNA opera.

Algoritmos de Aprendizaje Corrección de Error Basado en Memoria Hebbian Competitivo Boltzmann

Paradigmas de Aprendizaje Supervizado No Supervisado Por Refuerzos

Tareas de Aprendizaje Asociación de Patrones Reconocimiento de Patrones Aproximación Funcional Control Filtrado

Algoritmos de Aprendizaje Corrección de Error ek(n) = dk (n) – yk (n) E(n) = ½ ek(n) 2 — Error Energy wkj (n) =  ek(n) xj(n) — Delta Rule (Widrow-Hoff) wkj (n+1) = wkj (n) + wkj (n)

Algoritmos de Aprendizaje Basado en Memoria Almacenar ejemplos entrada – salida {(xi, di)} i=1, .., N Ejemplo: Clasificación binaria Clases: C1 y C2 xtest (nuevo) es clasificado examinando su vecindad

Algoritmos de Aprendizaje Basado en Memoria Componentes: Criterio para definir vecindad Regla de aprendizaje Ejemplo: Vecino más Cercano (Nearest Neighbor) x* e {x1, x2, .., xN} es el vmc de xtest si Mini d(xi, xtest ) = d(x*, xtest ) Donde d(xi, xtest ) es la distancia Euclideana

Algoritmos de Aprendizaje Basado en Memoria k Vecinox más Cercanos: Identificar los k vecinos mas cercanos a xtest Asignar a xtest la clase más común en sus k vecinos más cercanos

Algoritmos de Aprendizaje Hebbian Si dos neuronas vecinas se activan simultaneamente, el peso de su conexión se incrementa. Si dos neuronas vecinas se activan asíncronamente, la conexión se debilita o elimina. La conexión se llama sinapsis hebbiana

Algoritmos de Aprendizaje Hebbian Mecanismos en aprendizaje hebbiano Dependiente del Tiempo. Aprendizaje depende de los tiempos de activación. Local. Activaciones Espacio-Temporales. Interactivo. Depende de la interacción entre neuronas vecinas. Conjuncional (correlacional). La co-ocurrencia de señales produce una modificación de pesos.

Algoritmos de Aprendizaje Hebbian wkj – peso sináptico xj– señal presináptica yk– señal postsináptica wkj (n) = F(yk(n), xj(n)) wkj (n) =  yk(n) xj(n) — Hebb´s hypothesis wkj (n) =  (yk-yav) (xj(n)-xav) — Covariance Hypothesis

Algoritmos de Aprendizaje Competitivo Las neuronas de salida compiten para activarse. Solo una neurona de salida estará activa a la vez. Usadas en clasificación.

Algoritmos de Aprendizaje Competitivo yk= 1 si vk> vj jk yk= 0 otro caso i wkj = 1 k wkj =  (xj – wkj) si k gana wkj = 0 si k pierde

Algoritmos de Aprendizaje Boltzmann Estructura recurrente Estados: 1 y -1 E = - ½ j k wkjxkxj para j k — Energy Seleccionar neurona k aleatoriamente Cambiar su estado a temperatura T con probabilidad wkj =  (kj+ – kj-) para j k

Algoritmos de Aprendizaje Boltzmann Neuronas: Fijas (entradas) Libres Utilizadas para modelar (aprender) una distribución de probabilidad de los datos de entrada. Completan entradas incompletas.

Paradigmas de Aprendizaje Supervizado

Paradigmas de Aprendizaje Por Refuerzos Minimizar un índice escalar de aptitud Refuerzo retardado Asignación de Crédito y Culpa a acciones Aprende a realizar tareas basado solamente en el resultado de sus experiencias

Paradigmas de Aprendizaje No Supervizado Auto-organizado Medida de calidad de representación, independiente del contexto Los parámetros son optimizados con respecto a esa medida Clasificación

Tareas de Aprendizaje Asociación de Patrones Memoria Asociativa Almacenar Patrones Patrones con ruido Recordar patrones xk  yk, k=1, 2, ... , q Autoasociativo: xk = yk Heteroasociativo: xk  yk Meta de Diseño: Recordar + patrones con - neuronas

Tareas de Aprendizaje Reconocimiento de Patrones Clasificación

Tareas de Aprendizaje Aproximación Funcional d = f(x) T = {(xi, di)}, i=1, ..., N F aproximación de f Meta: F(x) – f(x)<, x

Tareas de Aprendizaje Control d = f(x) T = {(xi, di)}, i=1, ..., N F aproximación de f Meta: F(x) – f(x)<, x

Tareas de Aprendizaje Filtrado Filtrado. Extracción de información de una variable en el tiempo discreto n, usando mediciones hasta n. Smoothing. Filtrado con retardo. Predicción. Derivar información acerca del futuro de una variable, usando información pasada.

Tareas de Aprendizaje Filtrado Problema del Cocktail. Predicción no Lineal.

Ejercicios (Reglas de Aprendizaje)

Ejercicios (Reglas de Aprendizaje)

Ejercicios (Reglas de Aprendizaje)

Ejercicios (Paradigmas de Aprendizaje)