INTRODUCCIÓN A LAS REDES NEURONALES

Slides:



Advertisements
Presentaciones similares
INTRODUCCION A TECNICAS DE MINERIA DE DATOS
Advertisements

Introducción a las Redes neuronales
Silvana Arias Carla Espinosa Livia Loaiza INGENIERIA EN SISTEMAS
Redes neuronales2 José Edinson Aedo Cobo Depto. de Ing. Electrónica.
APRENDIZAJE WIDROW- HOFF
El Perceptrón  El psicólogo Frank Ronsenblant desarrolló un modelo simple de neurona basado en el modelo de McCulloch y Pitts que utilizaba.
INTRODUCCIÓN A REDES NEURONALES ARTIFICIALES TEORÍA Y APLICACIONES
LENGUAS ELECTRÓNICAS.
Introducción Calculabilidad clásica Computación celular
Redes Neuronales Monocapa
1 Problema no separable linealmente Se busca obtener un algoritmo más general que permita integrar el aprendizaje entre las dos capas.
ING. JOSE GUILLERMO GUARNIZO MARIN
Tipos de redes neuronales Perceptrón multicapa Redes de respuesta radial Competitivas Clasificación Mapa topológico.
Aplicaciones de las Redes Neuronales Artificilaes Dr. Héctor Allende
Redes Neuronales Artificiales
Aprendizaje de Agentes II Alberto Reyes Ballesteros Programa ITESM-IIE Doctorado en Ciencias Computacionales.
REDES NEURONALES.
Aprendizaje Automatizado
Redes Neuronales Artificiales 2 - Aprendizaje
Redes Neuronales Artificiales 3 - Perceptrones Dr. Juan José Flores Romero División de Estudios de Posgrado Facultad de Ingeniería Eléctrica
Redes Neuronales BPN - Backpropagation Networks
Redes Neuronales Artificiales Entrenamiento por Retropropagación del Error-Backpropagation Dr. Pedro Ponce Cruz EGIA-MCI.
Redes neuronales feed-forward
REDES NEURONALES TEORÍA MODERNA DE LA FIRMA 2010.
Algoritmo de Retropropagación. Notación n i, j, k son índices de las neuronas en las distintas capas.
Redes Neuronales.
1 Introducción a la minería de datos. 2 Temario ¿Qué es minería de datos? ¿Qué es minería de datos? ¿Quién usa minería de datos? ¿Quién usa minería de.
Instrumentos y técnicas para la medición de la evasión: el caso uruguayo DGI, Uruguay - 44ª. ASAMBLEA GENERAL DEL CIAT 13 de abril de 2010.
Funciones de Transferencia Presentado por: Niyireth Villabón Molina. Nora Juliana Solanilla V. Jesús Albeiro Agudelo.
TEMA: PSP (Personal Software Process) ANALISIS DE SISTEMAS I ING. EDGAR RAUL MOLINA INTEGRAMTES: HANNSEL E. CORDON AC JESSICA IDALMY KRESS FREDERIC HESTIB.
Pruebas de Funcionalidad de Software: Caja Negra y Caja Blanca Curso: Diseño de Sistemas 9no. Semestre.
Pedro Salcedo, Angélica Pinninghoff, Ricardo Contreras
U-6. Cap. III Introducción a la solución por series.
VENTAJAS DEL ALGORITMO LMS
Instituto Nacional de Estadística y Geografía
INTELIGENCIA ARTIFICIAL REDES NEURONALES
Computational influence of adult neurogenesis on memory endoding
Introducción La optimización trata de buscar el punto óptimo de una función objetivo cumpliendo con una serie de restricciones. El proceso de optimización.
Comparación de Modelos Neuronales Utilizadas en la Toma de Decisiones
Algunas consideraciones con Redes Neuronales
ADMINISTRACION DE LA PRODUCCION II 2017
Continuación Unidad 4. Control de flujo
INTRODUCCION La teoría de sistemas (TS) es un ramo específico de la teoría general de sistemas (TGS). La TGS surgió con los trabajos del alemán Ludwig.
TEORÍA DE GRAFOS -Algoritmo de Dijkstra -Algoritmo de Primm -Algoritmo de Kruskal Integrantes:
ALGORITMOS es un conjunto preescrito de instrucciones o reglas bien definidas, ordenadas y finitas que permite realizar una actividad mediante pasos.
REDES NEURONALES.
Continuación Unidad 4. Control de flujo
Aplicación de red neuronal “Back Propagation”:
CODIFICACION DEL CANAL
Algoritmos geneticos. Función de propagación o ponderación Esta función se encarga de transformar las diferentes entradas que provienen de la sinapsis.
Modalidades de la Investigación según Diseño y Tipo de Investigación REALIZADO POR: LUISANA J. MONTES V. CI:
Redes Neuronales Artificiales
El Perceptrón Multicapa. Criterio para la determinación de los pesos sinápticos: Regla de Aprendizaje:
Agentes que planifican. 1. Introduccion En la actualidad todas la mayoría de actividades en un empresa o compañía, como en el hogar o el medio ambiente.
 La minería de datos o exploración de datos (es la etapa de análisis de "Knowledge Discovery in Databases" o KDD) es un campo de la estadística y las.
Redes Neuronales Artificiales
Redes Neuronales Artificiales Curso Básico Federico Morán
DEL MANIPULADOR: PARTE 1 Roger Miranda Colorado
Autor: Henry Coral Director: Rodrigo Fonseca 2017
Radial basis functions
METODOLOGIA DE LA INVESTIGACION. OPERACIONALIZACION DE LAS VARIABLES.
Redes Auto-organizadas
Unidad 2. Simulación Edwin Yuliani Moreno Bautista.
Estimación 4 de software Tamaño Costo Duración Personas Mtro. Edgar Cossio Mayo 2016.
NOMBRE : Daniel Lima Cachi DOCENTE : ING. HENRY GOMEZ DEL CARPIO CURSO : CIRCUITOS ELECTRONICOS 3.
MÉTODO OWAS. INTRODUCCIÓN El método Owas permite la valoración de la carga física derivada de las posturas adoptadas durante el trabajo. A diferencia.
EL FIFI APRENDIZAJE INTEGRANTES: MAIRA RODRIGUEZ CANAVAL AIRA PINEDA LINARES ANAVELIS DIAZ SIERRA YURANIS RAMOS PERALES.
Unidad 4 Anexo 3. Capítulo I. Introducción.
PRUEBAS DE CAJA NEGRA. -Internationa Software Testing Qualification Board (ISTQB) Internationa Software Testing Qualification Board (ISTQB) Técnica de.
Transcripción de la presentación:

INTRODUCCIÓN A LAS REDES NEURONALES

Definiciones Básicas Inteligencia Artificial, se centra principalmente en la modelación y la simulación de las actividades cognitivas complejas (percepción, memoria, solución de problemas, etc.) que caracterizan a los organismos avanzados. Definición Red Neuronal: "Una red neuronal es un sistema compuesto de muchos elementos simples de proceso operando en paralelo cuya función está determinada por la estructura de la red, los pesos de las conexiones, y el procesado realizado en los elementos o nodos de cálculo."

“Sistema computacional compuesto por un alto número de simples elementos procesadores(neuronas), pero altamente interconectados, los cuales procesan la información entregando la respuesta o salida ante entradas externas” Algo de Historia. 1940s: Inicio de una nueva vía de investigación a partir de dos ramas confluyentes: la neurología y las ciencias computacionales. 1950s: Se dan grandes avances en el estudio de las memorias asociativas. Rosemblatt => Perceptrón 1960s: Período monopolizado por el perceptrón y sus variantes. Widrow y Hoff => Regla LMS

1969: Minsky y Papert demuestran las limitaciones del perceptrón => Desánimo Periodo de Renovación. 1974: Werbos introduce la idea general del aprendizaje con backpropagation 5 , aunque pasarán años hasta que su uso se popularice. 1980s: Expansión del conocimiento en forma de conferencias, libros, publicaciones, cursos, aplicaciones en la industria y las finanzas... 1986: Rumelhart, Hinton y Williams popularizan el uso del algoritmo de back-propagation. 1990s: Aplicaciones a problemas complejos en diversas áreas, ante los que las técnicas tradicionales poco pueden hacer

APLICACIONES REDES NEURONALES

Redes Neuronales Biológicas El cerebro humano está compuesto de millones de neuronas. Neurona emite impulsos eléctricos a lo largo del Axon. Las ramificaciones llegan hasta las dendritas de otras neuronas y establecen unas conexiones llamadas sinapsis (Impulso eléctrico => Mensaje neuroquímico)

Redes Neuronales Artificiales

Funciones típicas de transferencia (f).

Analogía Redes Neuronales Biológicas v/s Artificiales

Arquitectura Red Neuronal Capas de Entrada, Ocultas y Salida Conexiones Neuronas

Características Redes Neuronales No se necesita especificar relación entre Entrada y Salida, extrae dicha información desde los ejemplos. Relación No Lineal. Generalización. Tolerancia al Ruido. Memoria distribuida, lo cual entrega tolerancia a fallos.

¿COMO APRENDEN? Aprendizaje => Ajuste de Pesos Proceso de Aprendizaje o Entrenamiento Tipos de Aprendizaje Aprendizaje Supervisado Consiste en la modificación de los pesos al presentar los patrones de entrada junto a los patrones de salida deseados (targets) para cada patrón de entrada Aprendizaje => Ajuste de Pesos ¿COMO APRENDEN?

Aprendizaje No Supervisado No se requiere presentar patrones de salida deseados. Sin embargo, el algoritmo y la regla de modificación de las conexiones producen vectores de salida consistentes, esto es, la presentación de un patrón aprendido o parecido a él, produce siempre la misma salida. Existen diversas formas de actualizar los pesos. 1. Actualizar cada vez que se presenta un ejemplo a la Red Neuronal. 2. Actualizar los pesos una vez que se presentan todos los ejemplos a la Red Neuronal. 3. Presentar varias veces el set de ejemplos (ciclos o épocas).

Es importante mencionar que para realizar el Entrenamiento, los datos disponibles, se dividen en: 1.-Set de Entrenamiento [Se usan para ajustar los pesos y bias de la Red] 2.- Set de Validación. [Se usan durante el Entrenamiento para comprobar como se comporta la Red ante datos no “vistos”]. 3.-Set de prueba. [Se usa para ver el comportamiento de la Red ante situaciones nuevas ].

Generalización. Por Generalización, se entiende que la Red Neuronal entregue resultados aceptables cuando son presentados datos no “vistos” anteriormente por la Red. Problemas del Entrenamiento => Sobreentrenamiento, el cual provoca problemas de generalización Procedimiento adoptado para mejorar la Generalización => Early Stopping. Early Stopping (detención temprana) : Durante el proceso de Entrenamiento presenta los datos de validación a la red y lo detiene en caso de que la red entre una iteración y otra aumente su error de validación.

Algoritmos de aprendizaje Regla LMS (Least Mean Square),Widrow-Hoff o Delta K :Indice de Iteración Método del Gradiente: Wk+1=Wk-k Se define e= t(k) - a(k) Es necesario utilizar una estimación de k => j=1,...,R

Se conocen los patrones de entrada {p1,t1}, {p2,t2},.... {pQ,tQ} Tomando la derivada parcial del error cuadrático medio con respecto a los pesos y el bias, se tiene: j = 1,...,R Analicemos como es la derivada parcial con respecto al error. Luego, se obtiene:

W(k+1) = W(k) + 2e(k)pT(k) Finalmente, el cambio del vector de pesos y el bias en cada iteración será:  : Tasa de Aprendizaje Generalizando a S neuronas Lineales W(k+1) = W(k) + 2e(k)pT(k) b(k+1) = b(k) + 2e(k)

APLICACIÓN AL PRONÓSTICO DE CRECIDAS EN EL RÍO BIOBIO Tratar de predecir el comportamiento de caudales durante crecidas (Q t+k ; k >1), usando Redes Neuronales y usar los pronósticos para Alertar o Evacuar posibles sectores amagados.

SISTEMA DE ALERTA DE CRECIDAS EN EL RIO BIOBÍO.

Capa de Salida (solo 1 neurona) MODELO RED NEURONAL Capa de Salida (solo 1 neurona) Capa de Entrada ... Pesos o conexiones Pesos o conexiones

Es importante mencionar que 1 ejemplo corresponde a : Altura limnigráfica en Rucalhue en t-21 Altura limnigráfica en Rucalhue en t-20 Altura limnigráfica en Rucalhue en t-19 Altura limnigráfica en Desembocadura t-2 Altura limnigráfica en Desembocadura en t-1 Altura limnigráfica en Desembocadura en t Altura limnigráfica en Desembocadura en t +k [1 hr  k  20 hrs] Entradas Salida Para asegurar un mejor ajuste de la Red Neuronal, se escaló los datos considerando el valor máximo registrado en todas las crecidas.

Datos disponibles y confección del set de datos requerido. - Estación limnigráfica Biobío en Desembocadura - Estación limnigráfica Biobío en Rucalhue Con los datos mencionados , se seleccionaron los eventos de crecidas (H Desembocadura  2.6 [m]) ocurridos en los últimos 25 años. Lo anterior entrega un total de 29 crecidas pluviales, las cuales se dividieron como se muestra a continuación: Entrenamiento : 15 crecidas => 5949 ejemplos (50 %) Validación : 9 crecidas => 2928 ejemplos (25 %) Prueba : 5 crecidas => 2973 ejemplos (25 %)

Modelo para 1 paso de adelanto (k=1) Variando el número de neuronas en la capa oculta y observando aquella configuración de Red que entregue un menor error de validación. Con lo anterior se obtuvo una Red Neuronal [6 7 1]

Red Neuronal ajustada (1 paso de adelanto). Número de pesos a ajustados : 63

Indicadores de desempeño. Resultados obtenidos. Modelo Armax Indicadores de desempeño. Modelo recursivo hasta 20 pasos de adelanto. El modelo recursivo usa para las siguientes predicciones los valores generados por el modelo en el tiempo anterior.

Predicción hasta 20 pasos [Crecidas de Prueba]