REDES NEURONALES Introducción Enrique Carlos Segura.

Slides:



Advertisements
Presentaciones similares
Conceptos, fundamentos e historia
Advertisements

OTROS CAMPOS DE LA IA.
Inteligencia artificial y sus aplicaciones
INTELIGENCIA ARTIFICIAL
INTRODUCCION A TECNICAS DE MINERIA DE DATOS
Introducción a las Redes neuronales
Historia de la Inteligencia Artificial
Administración de Desastre
CIENCIAS DE LA COMPUTACIÓN
Silvana Arias Carla Espinosa Livia Loaiza INGENIERIA EN SISTEMAS
6. Sistemas Autoorganizados
REDES NEURONALES.
Inteligencia Artificial
Definición Machine learning traducido al español significa el aprendizaje automático o también aprendizaje de las maquinas. A partir de esto podemos darle.
Redes neuronales2 José Edinson Aedo Cobo Depto. de Ing. Electrónica.
Inteligencia Artificial
El Perceptrón  El psicólogo Frank Ronsenblant desarrolló un modelo simple de neurona basado en el modelo de McCulloch y Pitts que utilizaba.
Inteligencia Artificial (BAIA)  Se propone lograr que las computadoras se comporten de manera que podamos reconocerlas como inteligentes.  Tiene por.
REDES NEURONALES ARTIFICIALES
Redes Neuronales Artificiales
Seminario Científico Internacional 2008 de invierno (SCI 2008i) - Francisco García Fernández. Dr. Ingeniero de Montes - Luis García Esteban. Dr. Ingeniero.
MINISTERIO DE EDUCACI Ó N NACIONAL COLOMBIA APRENDE HíBRIDO ENTRE UNA RED NEURONAL Y UN MODELO ARIMA PARA LA ESTIMACI Ó N DE PRECIOS DE LOS VEHíCULOS EN.
INTRODUCCIÓN A REDES NEURONALES ARTIFICIALES TEORÍA Y APLICACIONES
LENGUAS ELECTRÓNICAS.
Introducción Calculabilidad clásica Computación celular
Redes Neuronales Monocapa
Fundamentos e Historia de la Inteligencia Artificial Introducción: Capítulo 1.
INTELIGENCIA ARTIFICIAL
Un ejemplo ilustrativo
SISTEMAS EXPERTOS 3 créditos. General Entender que es la Inteligencia Artificial y que son los Sistemas Expertos y porque es necesaria esta ciencia y.
La Matemática en la Inteligencia Artificial
Integrantes: Daniel Peña Alfredo Zuñiga
Aplicaciones de las Redes Neuronales Artificilaes Dr. Héctor Allende
SISTEMAS ADAPTATIVOS Y FILTRADO
Redes Neuronales Artificiales
Aprendizaje de Agentes II Alberto Reyes Ballesteros Programa ITESM-IIE Doctorado en Ciencias Computacionales.
Modelos Computacionales
REDES NEURONALES.
Practica 4 supercomputadoras.
Aprendizaje Automatizado
Redes Neuronales Artificiales 2 - Aprendizaje
Inteligencia Artificial
Inteligencia Artificial y Robótica
Redes Neuronales Artificiales
 Una supercomputadora o un superordenador es aquella con capacidades de cálculo muy superiores a las computadoras corrientes y de escritorio y que son.
2.1 Breve reseña histórica de la Neurocomputación
INTRODUCCIÓN A LA INTELIGENCIA ARTIFICIAL Y LOS SISTEMAS EXPERTOS
GPV ULA Redes Neuronales Artificiales, 2004 Aplicaciones Resuelven problemas en Ingeniería, en las matemáticas, en la medicina, en los negocios, en las.
METODOLOGÍA CUALITATIVA
NUEVAS TECNOLOGIAS.
Introducción a los Sistemas Inteligentes
Inteligencia Artificial
Redes Neuronales Artificiales: Una Introducción
REDES NEURONALES TEORÍA MODERNA DE LA FIRMA 2010.
Portafolio de evidencias
Aplicaciones de la IA Aplicaciones de la Inteligencia Artificial Perspectivas 2003.
Desde el principio de la humanidad se soñó con el desarrollo de máquinas que puedan imitar la capacidad de aprendizaje del hombre. Actualmente es un desafío.
INTELIGENCIA ARTIFICIAL APLICADA A LA ROBOTICA
Heurística. Los procesos que se llevan a cabo en el cerebro pueden ser analizados, a un nivel de abstacción dado, como procesos computacionales de algún.
SISTEMAS INTELIGENTES ¿De qué estamos hablando? Carlos Lameda Enero, 2006.
UNIDAD 01. EL MICROPROCESADOR
Introducción a la Inteligencia Artificial
Ángel Berihuete Francisco Álvarez
La Biología como Alternativa Computacional Nuevos Paradigmas de Computación inspirados en la Biología Mario de J. Pérez Jiménez, Fernando Sancho Caparrini.
Redes Neuronales.
NOMBRE: Paula Andrea Bedoya Rojas. GRADO: 7.3. Institución Educativa Debora Arango P.
PONENCIA: III ENCUENTRO VIRTUAL DE DOCENTES CON EXPERIENCIAS DE AULAS DE INNOVACIONES PEDAGOGICAS 2013 “MEGATENDENCIAS EN EDUCACIÓN”
INTELIGENCIA ARTIFICIAL
Redes Neuronales Artificiales
Redes Neuronales Artificiales Curso Básico Federico Morán
Transcripción de la presentación:

REDES NEURONALES Introducción Enrique Carlos Segura

Desde la neurona biológica

La sinapsis

Hacia la neurona artificial

Paradigma Conexionista / Paradigma Procedural Robustez y tolerancia a fallas: destrucción parcial conlleva degradación parcial de la performance Aprendizaje Adaptativo: a partir de datos (estímulos) del entorno -  no requiere programación Neurobiológicamente inspirado Opera en paralelo: naturalmente, sin necesidad de supervisión de alto nivel -> apropiado para implementación VLSI Autoorganizado: se estructura independientemente y representa en forma autónoma la información recibida. Inestabilidad ante fallas: destrucción de una sola línea de programa puede invalidar completamente su función Requiere programación: específica para la tarea deseada -Basado en instrucciones a un procesador -Opera secuencialmente: sólo es paralelizable mediante programación ad hoc -La forma en que se representa la información debe ser definida por el diseñador

Computabilidad: Paradigmas Matemático - Hilbert (1926) - Wilhelm Ackermann (1928). - Funciones recursivas generales - Kleene-Church: cálculo lambda (1936)‏ Lógico-operacional - Alan Turing (1936) Computacional (=con computadoras)‏ - Konrad Zuse (Berlín, )‏ - Mark I (Harvard), Eniac - Mark I (Manchester) Autómatas celulares Biológico (redes neuronales) - McCulloch & Pitts (1943) - N. Wiener (1948)

Perceptrón Multicapa Perceptrón Simple

El proceso de aprendizaje Por el cual los parámetros libres de una RN son adaptados a través de los estímulos del entorno en el cual está inmersa  El tipo de aprendizaje es determinado por la forma en que tienen lugar los cambios en los parámetros: w(n+1) = w(n) + Δw(n)‏ Aprendizaje Algoritmos definidos por la forma en que Δw es actualizado Paradigmas Un modelo del entorno con el que la RN se relaciona y en el cual opera Por correción de erroresde BoltzmannHebbianoSupervisadoPor refuerzoNo supervisadoCompetitivo

Historia La evolución del pensamiento conexionista no ha sido parsimoniosa Etapa Cualitativa o de los fundamentos (fines s. XIX – comienzos s. XX): trabajo interdisciplinario en física, psicología y neurofisiología (Helmholtz, Mach, Pavlov), teorías generales de aprendizaje, visión, condicionamiento. Etapa Cuantitativa o formal (a partir de los años ’40): McCulloch y Pitts [43]: muestran que las RNA podrían calcular cualquier función aritmética o lógica. Hebb [49]: el condicionamiento clásico (pavloviano) está presente dadas las propiedades de las neuronas individuales. Propone un mecanismo de aprendizaje en neuronas biológicas. Rosenblatt [58]: construye el Perceptrón Simple y lo aplica exitosamente a reconocimiento de patrones. Withrow y Hoff [60]: algoritmo de aprendizaje para entrenar RN lineales, similares al Perceptrón de Rosenblatt (regla Δ de aprendizaje).

La Crisis Minsky y Papert [69]: limitaciones de las redes de Rosenblatt y de Withrow. Estos proponen redes más sofisticadas pero no algoritmos de aprendizaje. Este [momentáneo] fracaso, sumado a la carencia de computadoras digitales potentes, conduce a una impasse de alrededor de una década. Sin embargo: 1972: Kohonen, Anderson: redes neuronales que actuaban como memorias 1976: Grossberg: redes autoorganizadas. El renacimiento Debido a: - La aparición de nuevos conceptos: Uso de mecánica estadística para analizar las propiedades y la dinámica de redes recurrentes capaces de funcionar como memorias asociativas (Hopfield). Algoritmo de Retropropagación para entrenar perceptrones multi-capa, en respuesta a las críticas de Minsky y Papert (Rumelhart y McClelland). - La disponibilidad de computadoras potentes en las cuales testearlos.

Algunas Aplicaciones -Científico-tecnológicas Modelado y diagnóstico del sistema cardiovascular, narices electrónicas, análisis de células cancerosas, EEG, ECG, modelos en biología y neurofisiología (memoria, aprendizaje, percepción), bioinformática (predicción de estructuras de proteínas, secuenciamiento de DNA)‏ - Industriales Bélicas, aeronáutica, electrónica, robótica, procesamiento de señales, automotrices, exploración de petróleo y gas, control de procesos -Servicios Médicas (diagnóstico inteligente), entretenimiento (animación, efectos especiales, predicción de tendencias del mercado)‏ -Económicas y financieras Evaluación de solicitudes de crédito e hipotecas, tasación de propiedades, evaluación de políticas de seguros, predicción de mercados de valores, títulos y monedas, predicción del comportamiento de los consumidores

Bibliografía Introduction to the Theory of Neural Computation John Hertz, Anders Krogh y Richard Palmer; Addison-Wesley. Disponible en Infoteca. Neural Networks, a Comprehensive Foundation Simon Haykin, Prentice Hall.. Neural Networks. Methodology and applications Gérard Dreyfus. Berlin, Springer-Verlag, 2005 Consultar a los docentes. Redes Neuronales. Algoritmos, Aplicaciones y Técnicas de Programación James Freeman y David Skapura; Addison-Wesley Disponible en Infoteca. Neural Network Design Martin T. Hagan, Howard B. Demuth, Mark H. Beale [Capitulos 1 al 4] [Capitulos 1 al 4]