Redes Neuronales Artificiales (ANN)

Slides:



Advertisements
Presentaciones similares
Redes Neuronales de Retropropagación
Advertisements

INTRODUCCION A TECNICAS DE MINERIA DE DATOS
Introducción a las Redes neuronales
DATA MINING MINERIA DE DATOS Gersom Costas.
Silvana Arias Carla Espinosa Livia Loaiza INGENIERIA EN SISTEMAS
6. Sistemas Autoorganizados
Aprendizaje Automatizado
REDES NEURONALES.
MATLAB MAYO 5 DEL 2005 IMPLEMENTACION DE LA FUNCION LOGICA XOR, MEDIANTE UN MODELO NEURONAL Y EL ALGORITMO BACKPROPAGATION EXPOSITORES: ANDRES FELIPE RESTREPO.
Redes neuronales2 José Edinson Aedo Cobo Depto. de Ing. Electrónica.
Máquinas con Vectores de Soporte - SVM
REDES NEURONALES Dr. Jorge Vivas
APRENDIZAJE WIDROW- HOFF
El Perceptrón  El psicólogo Frank Ronsenblant desarrolló un modelo simple de neurona basado en el modelo de McCulloch y Pitts que utilizaba.
Redes Neuronales Artificiales Tarea 4 Regla Delta Redes Neuronales Artificiales Tarea 4 Regla Delta Dr. Juan José Flores Romero División de Estudios de.
Inteligencia Artificial (BAIA)  Se propone lograr que las computadoras se comporten de manera que podamos reconocerlas como inteligentes.  Tiene por.
REDES NEURONALES ARTIFICIALES
Redes Neuronales Artificiales
Seminario Científico Internacional 2008 de invierno (SCI 2008i) - Francisco García Fernández. Dr. Ingeniero de Montes - Luis García Esteban. Dr. Ingeniero.
MINISTERIO DE EDUCACI Ó N NACIONAL COLOMBIA APRENDE HíBRIDO ENTRE UNA RED NEURONAL Y UN MODELO ARIMA PARA LA ESTIMACI Ó N DE PRECIOS DE LOS VEHíCULOS EN.
INCORPORACIÒN DE LA SIMULACIÓN VÍA REDES NEURONALES COMO HERRAMIENTA DE UNIVERSALIZACIÓN DEL CONOCIMIENTO. M.Sc. Manuel Marqués 1*, Dr. Luis Oliva Ruiz.
INTRODUCCIÓN A REDES NEURONALES ARTIFICIALES TEORÍA Y APLICACIONES
LENGUAS ELECTRÓNICAS.
Diplomado "Gestión de Negocios con Data Warehouse y Data Mining".
Introducción Calculabilidad clásica Computación celular
Redes Neuronales Monocapa
El Perceptrón Multicapa
ADALINE — The Adaptive Linear Element
Ejemplo de aplicación de las ANN
1 Problema no separable linealmente Se busca obtener un algoritmo más general que permita integrar el aprendizaje entre las dos capas.
Un ejemplo ilustrativo
Redes Neuronales Artificiales Autoorganizadas
1 Asignatura: Autor: Análisis Numérico César Menéndez Titulación: Planificación: Materiales: Conocimientos previos: Aproximación Ingeniero Técnico Informático.
Tipos de redes neuronales Perceptrón multicapa Redes de respuesta radial Competitivas Clasificación Mapa topológico.
Aplicaciones de las Redes Neuronales Artificilaes Dr. Héctor Allende
Aprendizaje (Machine Learning)  Pregunta interesante: Podemos hacer que las computadoras aprendan?  Aprender: mejorar automáticamente con la experiencia.
Redes Neuronales Artificiales Tarea 5 BackPropagation I Redes Neuronales Artificiales Tarea 5 BackPropagation I Dr. Juan José Flores Romero División de.
Redes Asociativas.
Redes Neuronales Artificiales
Aprendizaje de Agentes II Alberto Reyes Ballesteros Programa ITESM-IIE Doctorado en Ciencias Computacionales.
Perceptrón Multicapa Aplicaciones. Perceptrón Multicapa MLP Latitud Longitud... Altitud Radiación solar Aproximación de funciones MLP Estado de un reactor.
Modelos Computacionales
Redes Competitivas.
REDES NEURONALES.
Redes Neuronales Artificiales
Aprendizaje Automatizado
Redes Neuronales Artificiales 2 - Aprendizaje
Redes Neuronales Artificiales 3 - Perceptrones Dr. Juan José Flores Romero División de Estudios de Posgrado Facultad de Ingeniería Eléctrica
Introduccion a las Redes de Funciones de Base Radial
REDES NEURONALES ARTIFICIALES TEORÍA Y APLICACIONES
8.- Inteligencia artificial
Redes Neuronales BPN - Backpropagation Networks
Redes Neuronales Artificiales Entrenamiento por Retropropagación del Error-Backpropagation Dr. Pedro Ponce Cruz EGIA-MCI.
Redes neuronales feed-forward
Algoritmo de Retropropagación. Conclusiones de Retropropagación n 1. Si la neurona j es un nodo de salida es igual al producto de la derivada y la señal.
REDES NEURONALES TEORÍA MODERNA DE LA FIRMA 2010.
Algoritmo de Retropropagación. Notación n i, j, k son índices de las neuronas en las distintas capas.
Desde el principio de la humanidad se soñó con el desarrollo de máquinas que puedan imitar la capacidad de aprendizaje del hombre. Actualmente es un desafío.
Ángel Berihuete Francisco Álvarez
Redes Neuronales.
Perceptrones multicapa y retropropagacion del gradiente (Backpropagation) Hertz, krogh, Palmer, Introduction to the theory of neural computation, Addison.
REGRECION LINEAL SIMPLE, MULTIPLE Y CORRELACION. REGRECION LINEAL SIMPLE.
6.3 Región de rechazo Nazira Calleja. 2 Proceso de prueba de hipótesis Hs: Los fumadores pesan como el resto… 70 kg Ejemplo 1 Muestra aleatoria de fumadores.
Red Adaline B. Widrow & M. Hoff (Adaptive Linear Element)
REDES NEURONALES ARTIFICIALES (SOM - Kohonen)
PONENCIA: III ENCUENTRO VIRTUAL DE DOCENTES CON EXPERIENCIAS DE AULAS DE INNOVACIONES PEDAGOGICAS 2013 “MEGATENDENCIAS EN EDUCACIÓN”

Unsupervised visual learning of three-dimensional objects using a modular network architecture Ando, Suzuki, Fujita Neural Networks 12 (1999)
Analytics: 20 Años ± 4 siglos 1990s: CRISP-DM, Machine Learning 2000s: SEMMA, Decision Support 2010s: Business Case, Big Data Ciencias de la Administración.
Aplicación de red neuronal “Back Propagation”:
Transcripción de la presentación:

Redes Neuronales Artificiales (ANN)

Modelos Conexionistas Consideraciones Humanas Tiempo de Conmutación de una Neurona Número de Neuronas Conexiones por Neurona Tiempo de reconocimiento de escena Computación Paralela ~0.001s ~1010 ~104-5 ~0.1s

Modelos Conexionistas Propiedades de ANN Muchos unidades de conmutación como neuronas Muchas interconexiones pesadas entre unidades Necesidad de procesamiento en paralelo y distribuido Énfasis en el ajuste de pesos automáticamente

¿Cuándo considerar la ANN? La entrada es discreta con muchas dimensiones o continua (ej. sensores) Salida discreta o continua La salida es un vector de valores Posibles datos ruidosos La forma de la función objetivo es desconocida La compresión del modelo no es importante

¿Cuándo considerar la ANN? Ejemplos: Reconocimiento de fonemas hablados Clasificación de Imágenes Predicción financiera

Proyecto ALVINN

Perceptrón Escrita en notación vectorial

Superficie de decisión de un Perceptrón Representa algunas funciones útiles Cuáles serían los pesos para representar Algunas funciones no son representables Ej. Funciones no separables linealmente

Superficie de decisión de un Perceptrón

Regla de entrenamiento del Perceptrón donde donde es el valor objetivo es la salida del perceptrón es una constante pequeña (ej. 0.1) llamada learning rate

Adaline (Unidad Lineal)

Gradiente Descendente Para entender, considere una unidad linear simple donde Vamos a aprender las wi que minimicen Donde D es el conjunto de ejemplos de entrenamiento

Gradiente Descendente Regla de Aprendizaje

Gradiente Descendente

La regla del perceptron garantiza su convergencia si Los ejemplos de entrenamiento son linealialmente separables La razón de aprendizaje sea suficientemente pequeña

La regla de entrenamiento de la unidad lineal usan el gradiente descendente y garantiza su convergencia a hipótesis con el error cuadrático mínimo Dada una razón de aprendizaje sea suficientemente pequeña Aún cuando los datos de entrenamiento sean ruidosos Aun cuando los datos de entrenamiento no sean separables por H

Cálculo del Gradiente Descendente En modo en lotes Hacer hasta satisfacer Calcular el Gradiente Asignar

Cálculo del Gradiente Descendente En modo incremental Hacer hasta satisfacer Para cada ejemplo de entrenamiento d en D Calcular el Gradiente Asignar

El Gradiente Descendente Incremental puede aproximar al Gradiente Descendente en Lotes si η es suficientemente pequeña

Redes Neuronales Multicapa de Unidades Sigmoidales

Unidad Sigmoidal = y

Se puede derivar la regla del Gradiente Descendente para entrenar: Una unidad sigmoidal Redes Neuronales Multicapa  Backpropagation

Gradiente del Error de una unidad sigmoidal

Pero sabemos que: Asi que: