INTRODUCCIÓN A REDES NEURONALES ARTIFICIALES TEORÍA Y APLICACIONES

Slides:



Advertisements
Presentaciones similares
FUNDAMENTOS DE INFORMÁTICA 2
Advertisements

S ISTEMAS EXPERTOS BASADOS EN R EDES N EURONALES.
Modelos de frecuencia de disparo
INTRODUCCION A TECNICAS DE MINERIA DE DATOS
SISTEMAS INTELIGENTES
Redes Neuronales Artificiales
Introducción a las Redes neuronales
DATA MINING MINERIA DE DATOS Gersom Costas.
Administración de Desastre
Silvana Arias Carla Espinosa Livia Loaiza INGENIERIA EN SISTEMAS
7. Máquinas Estocásticas
PROYECTO DE GRADO CARLOS STALIN ALVARADO SANCHEZ
Profesor: David Fernando Ramírez Moreno Integrantes:
MATLAB MAYO 5 DEL 2005 IMPLEMENTACION DE LA FUNCION LOGICA XOR, MEDIANTE UN MODELO NEURONAL Y EL ALGORITMO BACKPROPAGATION EXPOSITORES: ANDRES FELIPE RESTREPO.
Emerson Alvarado Matamoros A40235 Ricardo Alvarado Villalobos A60289
Definición Machine learning traducido al español significa el aprendizaje automático o también aprendizaje de las maquinas. A partir de esto podemos darle.
Redes neuronales2 José Edinson Aedo Cobo Depto. de Ing. Electrónica.
Programas Son una serie o secuencia de instrucciones entendibles por los ordenadores que permiten la realización de las acciones o tareas para las que.
REDES NEURONALES Dr. Jorge Vivas
Redes Neuronales. SOMAdendritas AXON Sinapsis Las neuronas recibe entradas de otras neuronas a través de las dendritas y cuando la señal excede un cierto.
Inteligencia Artificial (BAIA)  Se propone lograr que las computadoras se comporten de manera que podamos reconocerlas como inteligentes.  Tiene por.
REDES NEURONALES ARTIFICIALES
Redes Neuronales Artificiales
Seminario Científico Internacional 2008 de invierno (SCI 2008i) - Francisco García Fernández. Dr. Ingeniero de Montes - Luis García Esteban. Dr. Ingeniero.
MINISTERIO DE EDUCACI Ó N NACIONAL COLOMBIA APRENDE HíBRIDO ENTRE UNA RED NEURONAL Y UN MODELO ARIMA PARA LA ESTIMACI Ó N DE PRECIOS DE LOS VEHíCULOS EN.
Assignature:Inteligencia Artificial.
INCORPORACIÒN DE LA SIMULACIÓN VÍA REDES NEURONALES COMO HERRAMIENTA DE UNIVERSALIZACIÓN DEL CONOCIMIENTO. M.Sc. Manuel Marqués 1*, Dr. Luis Oliva Ruiz.
LENGUAS ELECTRÓNICAS.
Introducción Calculabilidad clásica Computación celular
Redes Neuronales Monocapa
El Perceptrón Multicapa
Ejemplo de aplicación de las ANN
Image Processing Using FL and ANN Chapter 10 Dr. Mario Chacón DSP & Vision Lab.
1 Problema no separable linealmente Se busca obtener un algoritmo más general que permita integrar el aprendizaje entre las dos capas.
Un ejemplo ilustrativo
ING. JOSE GUILLERMO GUARNIZO MARIN
Tipos de redes neuronales Perceptrón multicapa Redes de respuesta radial Competitivas Clasificación Mapa topológico.
Integrantes: Daniel Peña Alfredo Zuñiga
Aplicaciones de las Redes Neuronales Artificilaes Dr. Héctor Allende
Contenido Identificación de sistemas con redes neuronales Modelado de dinámica temporal de las manchas solares.
Redes Neuronales Artificiales
Aprendizaje de Agentes II Alberto Reyes Ballesteros Programa ITESM-IIE Doctorado en Ciencias Computacionales.
Perceptrón Multicapa Aplicaciones. Perceptrón Multicapa MLP Latitud Longitud... Altitud Radiación solar Aproximación de funciones MLP Estado de un reactor.
Modelos Computacionales
Neurona  elemento de proceso Variantes y combinaciones: gran flexibilidad: ¿demasiada? Aprendizaje flexible:  Redes neuronales Respuesta de elemento.
REDES NEURONALES.
Practica 4 supercomputadoras.
Redes Neuronales Artificiales
Neurociencias Cognitivas y Redes Neuronales
Aprendizaje Automatizado
Redes Neuronales Artificiales 2 - Aprendizaje
2.1 Breve reseña histórica de la Neurocomputación
Introduccion a las Redes de Funciones de Base Radial
REDES NEURONALES ARTIFICIALES TEORÍA Y APLICACIONES
Redes Neuronales BPN - Backpropagation Networks
Redes Neuronales Artificiales Entrenamiento por Retropropagación del Error-Backpropagation Dr. Pedro Ponce Cruz EGIA-MCI.
Redes neuronales feed-forward
Sistemas Expertos Integrantes Javier Farfán Katherine Jara Héctor Gatica.
DATA MINING KAROL PARDO MIGUEL VALCERO CORPORACION UNIVERSITARIA MINUTO DE DIOS.
Algoritmo de Retropropagación. Conclusiones de Retropropagación n 1. Si la neurona j es un nodo de salida es igual al producto de la derivada y la señal.
Identificacion con redes neuronales
REDES NEURONALES TEORÍA MODERNA DE LA FIRMA 2010.
Portafolio de evidencias
Desde el principio de la humanidad se soñó con el desarrollo de máquinas que puedan imitar la capacidad de aprendizaje del hombre. Actualmente es un desafío.
Ángel Berihuete Francisco Álvarez
La Biología como Alternativa Computacional Nuevos Paradigmas de Computación inspirados en la Biología Mario de J. Pérez Jiménez, Fernando Sancho Caparrini.
Redes Neuronales.
Redes Neuronales Artificiales (ANN)

Redes Neuronales Artificiales
Transcripción de la presentación:

INTRODUCCIÓN A REDES NEURONALES ARTIFICIALES TEORÍA Y APLICACIONES Dr. Héctor Allende Departamento de Informática Universidad Técnica Federico Santa María

Redes Neuronales Artificiales Capítulo 1 Basic Neural Dynamics The ANN Books R.M. Kristev 1998 http://www.inf.utfsm.cl/~hallende/ redes neuronales/novedades FAQ NN: "ftp://ftp.sas.com/pub/neural/FAQ.html" Profesor: Héctor Allende Redes Neuronales Artificiales

Inteligencia Computacional ? Computational Intelligence Combinación: Ciencias de la Computación Neuro-Fisiología Filosofía (Teoría del conocimiento y lógica) Creación de Máquinas que puedan Pensar en el sentido del test de Turin

Corteza Cerebral Humana: 11 Aproximadamente 10 neuronas 1000 a 10.000 Synapsis por neurona Comunicación tren de impulsos electro-quimicos ( mensaje modulado) Proceso Cognitivo tiempo (milisegundos) Operación Masiva Paralela Secuencial en 100 Etapas

Célula Nerviosa Soma: Info. Hereditaria + Plasma + Generación Señales Dendritas: Recepción Señales  Impulsos Axón: Transmisión de Señales Sinapsis: Interfaz Neuronal (Inhibitoria, Excitatoria)

Redes Neuronales Artificiales Breve Historia 1943 W.McCulloch, W. Pitts: Modelo ANN ( El Perceptrón ) 1959 Bernard Widrow ( SU): Filtro Adaline (Adaptative Linear Neuron) y el Madaline (Multiple Adaline) Basado en ( ANN) 1969 Minsky y Papert: El Perceptrón (limitaciones). 1982 J. Hopfield: Memoria Asociativa ”Redes de Hopfield". 1986 Rumulhart, Hunton y Williams : redescubren el BPL algoritmo de "back-propagation learning" ( Paul Werbor, 1974) 1989 K. Hornik, M. Stinchcombe, H. White: Multi-FANN y Aproximación Universal Profesor: Héctor Allende Redes Neuronales Artificiales

Red neuronal artificial (ANN) ANN: Es un sistema dinámico compuesto por redes paralelas y distribuidas de procesadores elementales, con la capacidad de aprender y almacenar “conocimiento”. Arquitectura Interacción Función de proceso ANN: SM sobre-parametrizado Profesor: Héctor Allende Redes Neuronales Artificiales

Aplicaciones de las ANN Resolver problemas Complejos Hacer generalizaciones Establecer Relaciones no evidentes Análisis de sistemas complejos Percepción Comprensión y Aprendizaje Generación de nuevo conocimiento

Aplicaciones de las ANN Telecomunicaciones Informática Minería Energía Finanzas Transporte Salud

Aplicaciones de las ANN Clasificación Pre-procesamiento de datos Reconocimiento de patrones Aproximación de funciones Predicción de Series de Tiempo Optimización Combinatorial Control

Modelo Neuronal: Mc Culloch & Pitts 1943 w 1 1i . . .  xi(t) bi 1 w 1 ni n 1 å wij xj(t-1) - bi xi(t) = j=1 Profesor: Héctor Allende Redes Neuronales Artificiales

ANN y Neuronales Biológicas Neurona y Conecciones Sinápticas Procesador Elemental Neuronas: El aprendizaje se produce mediante la variación de la efectividad de las sinapsis, de esta manera cambia la influencia que unas neuronas ejercen sobre otras. ANN: La regla de aprendizaje usada indica como se ajustan los pesos de las conexiones en función del vector entrada Profesor: Héctor Allende Redes Neuronales Artificiales

Redes Neuronales Artificiales Analogías Profesor: Héctor Allende Redes Neuronales Artificiales

Redes Neuronales Artificiales Procesador Elemental. PE: Es una unidad básica de procesamiento la que posee múltiples entradas y solo una salida. Cada entrada xi es ponderada por un factor (peso) wi y se calcula la suma ponderada de las entradas: Luego es aplicada una transformación mediante la función de activación : Profesor: Héctor Allende Redes Neuronales Artificiales

Redes Neuronales Artificiales Procesador elemental. a=netai wi f(a) xi f Input Output Unidad de agregación Unidad de Activación Profesor: Héctor Allende Redes Neuronales Artificiales

Redes Neuronales Artificiales Procesador elemental. ANN Feedforward: Se construye colocando las neuronas en capas y conectando las salidas de una capa con las entradas de las neuronas de la próxima capa. Capas de una red: Capa de entrada Zona sensorial ( S) Capa de salida Zona de Respuesta ( R) Capas ocultas Zona de asociación ( A) Profesor: Héctor Allende Redes Neuronales Artificiales

ANN: Aprendizaje y Generalización Métodos Actuales Tipos de Aprendizaje Tipos de Arquitectura Tipos de Función de Transición: deterministas, probabilistas Tipo de Algoritmo de Aprendizaje: BPL, PPL, LM, etc Supervisado No - Supervisado Híbridos FeedForward Single, Multiple Recurrentes Profesor: Héctor Allende Redes Neuronales Artificiales 17

Feedforward Neural Network Profesor: Héctor Allende Redes Neuronales Artificiales

Redes Neuronales Artificiales Redes Feedforward FANN La capa 0 no realiza procesamiento alguno, solo distribuye las entradas a la capa siguiente x1 x2 S Profesor: Héctor Allende Redes Neuronales Artificiales

Redes Neuronales Artificiales Modelo de Turing xi(0)  {0,1} n 1 å wij xj(t-1) - bi xi(t) = j=1  i=1,...,n W (conectividad de la NN) b = (bi ) vector de umbrales wij Profesor: Héctor Allende Redes Neuronales Artificiales

Redes Neuronales Artificiales Arquitectura En función de la conectividad de las capas, podemos hablar de redes recurrentes (feed-back) y redes no recurrentes o redes en cascada (feed-forward). Lo más usual es disponer las unidades en forma de capas, pudiéndose hablar de redes de una capa oculta, o de más de dos capas ocultas (redes multicapa Profesor: Héctor Allende Redes Neuronales Artificiales

Neuronas y Redes simples. ANN Recurrente: La salida de una neurona es la entrada de neuronas de capas anteriores (feedback). Feedback lateral: La salida de una neurona es la entrada de otra neurona en la misma capa. Profesor: Héctor Allende Redes Neuronales Artificiales

Neuronas y Redes simples. Parámetros de la Red: Los pesos {wi}. Aprendizaje o entrenamiento: Es el procedimiento mediante el cual los pesos son ajustados. Conjunto de entrenamiento: Conjunto de datos que consiste vectores de entrada asociado con vectores de salida deseada:{(xi,yi)}. Profesor: Héctor Allende Redes Neuronales Artificiales

Neuronas como funciones Las neuronas transforman una entrada no acotada x(t) en el tiempo t en una señal de salida acotada f(x(t)). La función de activación o función de señal: f Velocidad de la señal: Profesor: Héctor Allende Redes Neuronales Artificiales

Funciones de Activación Tipo Sigmoide Funciones Base Radial Profesor: Héctor Allende Redes Neuronales Artificiales

Funciones de activación comunes Función de activación logística: Es monótamente creciente para c >0 Profesor: Héctor Allende Redes Neuronales Artificiales

Funciones de activación comunes Profesor: Héctor Allende Redes Neuronales Artificiales

Funciones de activación comunes Tangente hiperbólica: donde c>0. Profesor: Héctor Allende Redes Neuronales Artificiales

Funciones de activación comunes Threshold (umbral) c>0 Profesor: Héctor Allende Redes Neuronales Artificiales

Funciones de activación comunes Distribución exponencial: c>0. Profesor: Héctor Allende Redes Neuronales Artificiales

Funciones de activación comunes Razón polinomial: Profesor: Héctor Allende Redes Neuronales Artificiales

Funciones de activación comunes Pulse-coded: Consiste en un tren de pulsos exponencialmente ponderados Profesor: Héctor Allende Redes Neuronales Artificiales

NN: Preguntas Abiertas Tamaño de las muestras Cuántas Neuronas Cuantas Capas Tipo de Arquitectura ( Selección del Modelo ANN) Tipo de Aprendizaje Algoritmos de Aprendizaje ¿Cuándo usar ANN Modelador Profesor: Héctor Allende Redes Neuronales Artificiales

Redes Neuronales Artificiales Aplicaciones NN Optimización Combinatorial Aprendizaje y Generalización: Memorias Asociativas (Básico) Redes Multicapas Pattern Recognition Predicción y Pronósticos Aproximación de Funciones Modelos de Difusión de Información Arquitecturas Paralelas Profesor: Héctor Allende Redes Neuronales Artificiales

Test de Turing: “Un computador merece ser llamado inteligente si puede hacer pensar a un ser humano que es otro ser humano”

Estructura y Formas de Conexión Función de Activación Se suele distinguir entre funciones lineales, en las que la salida es proporcional a la entrada; funciones de umbral, en las cuales la salida es un valor discreto (típicamente binario 0/1) que depende de si la estimulación total supera o no un determinado valor de umbral; y funciones no lineales, no proporcionales a la entrada. Caracteristicas Aprendizaje inductivo Generalización .Abstracción tolerancia al ruido: Procesamiento paralelo Memoria Distribuida Redes Asincronicas v/s Sincronicas Metodos deterministas v/s Estaticos Profesor: Héctor Allende Redes Neuronales Artificiales

Funcionamiento Basico La arquitectura más usada en la actualidad de una red neuronal consistiría en: Una primera capa de entradas, que recibe información del exterior. Una serie de capas ocultas (intermedias), encargadas de realizar el trabajo de la red. Una capa de salidas, que proporciona el resultado del trabajo de la red al exterior. El número de capas intermedias y el número de neuronas de cada capa dependerá del tipo de aplicación al que se vaya a destinar la red neuronal. Profesor: Héctor Allende Redes Neuronales Artificiales