Identificacion con redes neuronales

Slides:



Advertisements
Presentaciones similares
INTRODUCCION A TECNICAS DE MINERIA DE DATOS
Advertisements

Introducción a las Redes neuronales
Aplicación Web Programación Docente
Silvana Arias Carla Espinosa Livia Loaiza INGENIERIA EN SISTEMAS
Estructura de Datos Hugo Araya Carrasco Hugo Araya Carrasco.
K-NN: K vecinos más cercanos
PROYECTO DE GRADO CARLOS STALIN ALVARADO SANCHEZ
ESCUELA SUPERIOR POLITECNICA DEL LITORAL
MATLAB MAYO 5 DEL 2005 IMPLEMENTACION DE LA FUNCION LOGICA XOR, MEDIANTE UN MODELO NEURONAL Y EL ALGORITMO BACKPROPAGATION EXPOSITORES: ANDRES FELIPE RESTREPO.
Redes neuronales2 José Edinson Aedo Cobo Depto. de Ing. Electrónica.
Tema 3 Revisión de diversos métodos robustos aplicados en algunos problemas fotogramétricos.
Modelado y simulación en Ingeniería Química. Manuel Rodríguez
Versión 2004 Enrique Bañuelos Gómez
Especialista en Business Intelligence Analysis Services SSAS (Sesión 14) Microsoft SQL Server 2008 R2 Suscribase a o escríbanos a
RESULTADOS DE UNA EDUCACIÓN FUNDAMENTADA
Brean León Rodríguez Diego Ochoa Moreno
Redes Neuronales Artificiales Tarea 4 Regla Delta Redes Neuronales Artificiales Tarea 4 Regla Delta Dr. Juan José Flores Romero División de Estudios de.
REDES NEURONALES ARTIFICIALES
Seminario Científico Internacional 2008 de invierno (SCI 2008i) - Francisco García Fernández. Dr. Ingeniero de Montes - Luis García Esteban. Dr. Ingeniero.
Assignature:Inteligencia Artificial.
Tema 2: Métodos de ajuste
Maracaibo, 5 de Noviembre de 2007 Universidad del Zulia Facultad de Ingeniería Instituto de Cálculo Aplicado Universidad del Zulia Facultad de Ingeniería.
Diplomado "Gestión de Negocios con Data Warehouse y Data Mining".
Introducción Calculabilidad clásica Computación celular
PROGRAMACIÓN PARALELA Tema 4: Metodología de la programación
Redes Neuronales Monocapa
El Perceptrón Multicapa
Mario Francisco, Pastora Vega
1 Problema no separable linealmente Se busca obtener un algoritmo más general que permita integrar el aprendizaje entre las dos capas.

Procesamiento digital Parte 3 - Filtros
Tipos de redes neuronales Perceptrón multicapa Redes de respuesta radial Competitivas Clasificación Mapa topológico.
GRUPO DE INVESTIGACION EN CONTROL INDUSTRIAL
Integrantes: Daniel Peña Alfredo Zuñiga
DATA WAREHOUSE Equipo 9.
PREVISIÓN DE SERIES TEMPORALES MEDIANTE REDES NEURONALES ARTIFICIALES
Mt. Martín Moreyra Navarrete.
(Organización y Manejo de Archivos)
Combinación de Clasificadores
Contenido Identificación de sistemas con redes neuronales Modelado de dinámica temporal de las manchas solares.
Control basado en redes neuronales
Redes Neuronales Artificiales
Aprendizaje de Agentes II Alberto Reyes Ballesteros Programa ITESM-IIE Doctorado en Ciencias Computacionales.
Perceptrón Multicapa Aplicaciones. Perceptrón Multicapa MLP Latitud Longitud... Altitud Radiación solar Aproximación de funciones MLP Estado de un reactor.
REDES NEURONALES.
Practica 4 supercomputadoras.
Introducción La inferencia estadística es el procedimiento mediante el cual se llega a inferencias acerca de una población con base en los resultados obtenidos.
Previsión de Ventas. Métodos no paramétricos Previsión de Ventas. Tema 2. 1 Antonio Montañés Bernal Curso
Aprendizaje Automatizado
Introduccion a las Redes de Funciones de Base Radial
Aprendizaje No Supervisado y Redes de Kohonen
MATLAB Adriana Ruiz Martínez. Mario Cesar Taracena Contreras.
INTRODUCCIÓN A LA INGENIERÍA DEL SOFTWARE
Control Directo del Par sin Sensores de Velocidad par MI.
Redes Neuronales BPN - Backpropagation Networks
Redes Neuronales Artificiales Entrenamiento por Retropropagación del Error-Backpropagation Dr. Pedro Ponce Cruz EGIA-MCI.
Redes neuronales feed-forward
L A ESTIMACION DE PARAMETROS 1. /31 CONTENIDO Principio fundamental de la estimación de parámetros Un metodo grafico para la estimacion de parametros.
Algoritmo de Retropropagación. Conclusiones de Retropropagación n 1. Si la neurona j es un nodo de salida es igual al producto de la derivada y la señal.
Capacitación del personal
REDES NEURONALES TEORÍA MODERNA DE LA FIRMA 2010.
La función comercial y la nueva economía
Introducción a los TADs
Desde el principio de la humanidad se soñó con el desarrollo de máquinas que puedan imitar la capacidad de aprendizaje del hombre. Actualmente es un desafío.
Ángel Berihuete Francisco Álvarez
E.S. de proyectos con NN. Identificación de aplicaciones de las NN Existen muchos tipos de problemas donde se pueden aplicar las NN, no obstante, las.
Redes Neuronales.
Marco de Trabajo para Indexación, Clasificación y Recopilación Automática de Documentos Digitales Javier Caicedo Espinoza Gonzalo Parra Chico.

Conclusiones: En este trabajo se ha demostrado que se pueden aplicar los algoritmos OCH al ajuste de los parámetros de un modelo borroso mediante la discretización.
Transcripción de la presentación:

Identificacion con redes neuronales Control Inteligente

Contenido Identificación de sistemas con redes neuronales Modelado de dinámica temporal de las manchas solares

Identificación de sistemas con redes neuronales

Identificación de sistemas con redes neuronales Dos categorías: la identificación del modelo directo la identificación del modelo inverso

Identificación del modelo directo Existen dos estructuras de implementación de los esquemas de identificación:  Estructura serie-paralelo   Estructura paralelo.

Identificación del modelo directo Línea punteada: identificación serie-paralelo; linea a rayas: identificación paralelo.

Identificación del modelo directo Línea punteada: identificación serie-paralelo; linea a rayas: identificación paralelo.

Identificación directa del modelo inverso Línea punteada: identificación serie-paralelo; linea a rayas: identificación paralelo.

Identificación directa del modelo inverso Línea punteada: identificación serie-paralelo; linea a rayas: identificación paralelo.

Identificación directa del modelo inverso Desventaja: El procedimiento de adaptación de la red neuronal no es “dirigido hacia un objetivo”, Se requieren señales de entrenamiento distribuidas en forma masiva Esto inevitablemente produciría un tiempo de entrenamiento largo.

Identificación directa del modelo inverso Desventaja: Adicionalmente, en el caso de mapeos de sistemas no lineales varios-a-uno, el entrenamiento podría ser difícil, y probablemente conduzca a un modelo inverso erroneo

Identificación indirecta del modelo inverso Dos estructuras: identificación serie-paralelo identificación paralelo.

Identificación indirecta del modelo inverso identificación serie-paralelo; identificación paralelo.

Modelado de la dinámica temporal de las manchas solares

problema Analizar las variaciones en la actividad de manchas solares utilizando los datos recogidos por los astrónomos durante casi 300 años de una cantidad denominada número de Wolfer, contenidas en archivo “sunspot.dat” Se pretende modelizar el comportamiento de este sistema mediante una red

DATOS PARA LA OBTENCION DEL MODELO

Consideraciones previas Serie temporal con ciclo de 11 años Pocos datos Necesidad de validar el modelo realizar prueba ante nuevas entradas

objetivo Dados los registros de numero de manchas solares de los últimos 300 años (sunspot.dat) Crear modelo AR con redes neuronales Que permita predecir el numero de manchas solares en cualquier año

El proceso consta fundamentalmente de cuatro pasos: Preparar el conjunto de datos de entrenamiento. Crear la arquitectura de la RNA. Entrenar la RNA. Simular la respuesta de la red ante entradas nuevas

Preparar el conjunto de datos de entrenamiento. Pre procesado En problemas de modelización con datos obtenidos de sistemas reales, es importante pre procesar dichos datos antes de su utilización Filtrado Redundancias Escalado

Preparar el conjunto de datos de entrenamiento. Escalado (normalización de media y varianza) Es recomendable eliminar la media y escalar todas las señales con la misma varianza. Los datos pueden ser obtenidos de diferentes sistemas físicos, y los de mayor valor pueden ser demasiado dominantes. Además, el escalado acelera el proceso de entrenamiento.

Preparar el conjunto de datos de entrenamiento. Escalado (normalización de media y varianza) El Neural Network Toolbox de Matlab (NNT) ofrece algunas funciones para el preprocesado y postprocesado de datos: [pn,meanp,stdp,tn,meant,stdt] = prestd(p,t)

Preparar el conjunto de datos de entrenamiento. Se va a utilizar las medidas tomadas desde 1700 hasta 1979 de las variaciones de la media anual de actividad solar. Datos Escalizados (sunspot.dat)

Preparar el conjunto de datos de entrenamiento. Los datos desde 1700-1920 se tomaran como conjunto de entrenamiento, Los periodos 1921-1955 y 1956-1979 se utilizarán como conjuntos de validación y test: sun_train.txt (conjunto de entrenamiento) y(1700), y(1701), y(1702),……..y(1920) sun_test1.txt (conjunto de validación) y(1921), y(1922), y(1923),……..y(1955) sun_test2.txt (conjunto de test) y(1955), y(1956), y(1957),……..y(1979)

Preparar el conjunto de datos de entrenamiento. Matrices P y T de entrenamiento

Crear la arquitectura de la RNA Se define una red multicapa feedforward de tres capas con 10 nodos logísticos en la capa oculta y un nodo lineal en la de salida. El algoritmo de entrenamiento será el de “levenberg-Marquardt” Se eligió neuronas lineales en la capa de salida para que la salida pueda tomar cualquier valor.

Mejorar la Generalización problemas más típico en el entrenamiento de las RNA’s: El sobre-entrenamiento la red no es capaz de generalizar correctamente lo aprendido ante nuevas situaciones Este efecto es muy común cuando el número de parámetros de la red es grande con respecto al conjunto de entrenamiento no es sencillo saber cuál es el tamaño de red adecuado para cada problema, hay algunas técnicas que pueden ayudarnos en esta labor.

Mejorar la Generalización Regularización: Esta técnica modifica la función objetivo, que pasa a ser una suma ponderada del MSE (error cuadratico medio)en los datos de entrenamiento con la media de la suma de los cuadrados de los pesos y bias de la red: donde msereg es el error cuadrático medio con regularización. r Factor de estimacion msw es la funcion objetivo

Mejorar la Generalización La dificultad estriba en la correcta elección del parámetro de ponderación γ, ya que si es muy pequeño la red no podrá aprender adecuadamente, y si es demasiado grande no evitaremos el sobreentrenamiento.

Mejorar la Generalización En matlab se dispone de una rutina para determinar el parámetro óptimo basada en la regularización bayesiana denominada ‘trainbr’. característica interesante del algoritmo es que nos permite analizar cuántos parámetros de la red están siendo utilizados de manera efectiva por la red . nos puede orientar acerca del adecuado tamaño de la red para el problema que estemos tratando.

Fuentes Jorge Barajas, Faber Montero, Modelización mediante redes neuronales artificiales: dinámica temporal de las manchas solares , trabajo de curso, Control Inteligente, 2008 Xiao-Zhi Gao, Soft computing methods for control and instrumentation. Thesis for the degree of Doctor of Science in Technology. Institute of Intelligent Power Electronics Publications, Espoo, May 1999 Publication 2

FIN FIN