Introduccion a las Redes de Funciones de Base Radial

Slides:



Advertisements
Presentaciones similares
Redes Neuronales de Retropropagación
Advertisements

INTRODUCCION A TECNICAS DE MINERIA DE DATOS
SISTEMAS INTELIGENTES
Introducción a las Redes neuronales
Silvana Arias Carla Espinosa Livia Loaiza INGENIERIA EN SISTEMAS
Mapas Autoorganizados
6. Sistemas Autoorganizados
REDES NEURONALES.
MATLAB MAYO 5 DEL 2005 IMPLEMENTACION DE LA FUNCION LOGICA XOR, MEDIANTE UN MODELO NEURONAL Y EL ALGORITMO BACKPROPAGATION EXPOSITORES: ANDRES FELIPE RESTREPO.
Red Neuronal de Contrapropagación
Redes neuronales2 José Edinson Aedo Cobo Depto. de Ing. Electrónica.
Máquinas con Vectores de Soporte - SVM
RECONOCIMIENTO DE OBJETOS
El Perceptrón  El psicólogo Frank Ronsenblant desarrolló un modelo simple de neurona basado en el modelo de McCulloch y Pitts que utilizaba.
Seminario Científico Internacional 2008 de invierno (SCI 2008i) - Francisco García Fernández. Dr. Ingeniero de Montes - Luis García Esteban. Dr. Ingeniero.
Formas canonicas de sistemas LTI
INCORPORACIÒN DE LA SIMULACIÓN VÍA REDES NEURONALES COMO HERRAMIENTA DE UNIVERSALIZACIÓN DEL CONOCIMIENTO. M.Sc. Manuel Marqués 1*, Dr. Luis Oliva Ruiz.
INTRODUCCIÓN A REDES NEURONALES ARTIFICIALES TEORÍA Y APLICACIONES
Introducción Calculabilidad clásica Computación celular
Redes Neuronales Monocapa
El Perceptrón Multicapa
ADALINE — The Adaptive Linear Element
Ejemplo de aplicación de las ANN
Image Processing Using FL and ANN Chapter 10 Dr. Mario Chacón DSP & Vision Lab.
1 Problema no separable linealmente Se busca obtener un algoritmo más general que permita integrar el aprendizaje entre las dos capas.
Un ejemplo ilustrativo
Tipos de redes neuronales Perceptrón multicapa Redes de respuesta radial Competitivas Clasificación Mapa topológico.
Integrantes: Daniel Peña Alfredo Zuñiga
PREVISIÓN DE SERIES TEMPORALES MEDIANTE REDES NEURONALES ARTIFICIALES
3. Funciones discriminantes para la f.d.p normal.
Aplicaciones de las Redes Neuronales Artificilaes Dr. Héctor Allende
Una estimación muy temprana de Tiempo y Esfuerzo requerido para el Desarrollo de Software mediante Redes Neuronales Pedro Salvetto (Universidad ORT, Montevideo)
Aprendizaje (Machine Learning)  Pregunta interesante: Podemos hacer que las computadoras aprendan?  Aprender: mejorar automáticamente con la experiencia.
Redes Neuronales Artificiales Tarea 5 BackPropagation I Redes Neuronales Artificiales Tarea 5 BackPropagation I Dr. Juan José Flores Romero División de.
Redes Neuronales Artificiales Tarea 6 BackPropagation II Redes Neuronales Artificiales Tarea 6 BackPropagation II Dr. Juan José Flores Romero División.
Computacion inteligente
Redes Asociativas.
Contenido Identificación de sistemas con redes neuronales Modelado de dinámica temporal de las manchas solares.
Redes Neuronales Artificiales
Aprendizaje de Agentes II Alberto Reyes Ballesteros Programa ITESM-IIE Doctorado en Ciencias Computacionales.
Perceptrón Multicapa Aplicaciones. Perceptrón Multicapa MLP Latitud Longitud... Altitud Radiación solar Aproximación de funciones MLP Estado de un reactor.
Red de Minería y Aprendizaje Grupo de Aprendizaje Automático Universidad de Oviedo en Gijón Selección de Atributos en Aprendizaje.
Modelos Computacionales
Neurona  elemento de proceso Variantes y combinaciones: gran flexibilidad: ¿demasiada? Aprendizaje flexible:  Redes neuronales Respuesta de elemento.
Reconocimiento de Formas en Data Mining Prof: Héctor Allende Capítulo 2 Aproximación Paramétrica.
REDES NEURONALES.
Practica 4 supercomputadoras.
Redes Neuronales Artificiales
La evaluación Sumativa. La evaluación sumativa habitualmente se describe como la ultima evaluación a la que son sometidos los alumnos, después de haber.
Aprendizaje Automatizado
Redes Neuronales Artificiales 2 - Aprendizaje
Redes Neuronales Artificiales 3 - Perceptrones Dr. Juan José Flores Romero División de Estudios de Posgrado Facultad de Ingeniería Eléctrica
ANÁLISIS MULTIVARIANTE
Analisis de datos en imagenes hiperespectrales: intro 1 Analisis de datos hiperespectrales: otra revisión Hyperespectral image data analysis, D. Landgrebe,
Redes Neuronales BPN - Backpropagation Networks
Redes Neuronales Artificiales Entrenamiento por Retropropagación del Error-Backpropagation Dr. Pedro Ponce Cruz EGIA-MCI.
Redes neuronales feed-forward
GRUPO A. Introducción Tratamiento de Imágenes Experimentación Numérica Conclusiones Bibliografía Desarrollo de Programas 1 - GRUPO A2.
Identificacion con redes neuronales
REDES NEURONALES TEORÍA MODERNA DE LA FIRMA 2010.
Desde el principio de la humanidad se soñó con el desarrollo de máquinas que puedan imitar la capacidad de aprendizaje del hombre. Actualmente es un desafío.
Ángel Berihuete Francisco Álvarez
Redes Neuronales.
Computacion inteligente Clustering Fuzzy. 2 Contenido  Conceptos basicos  Tipos de clustering  Tipos de Clusters  La tarea del clustering  Nociones.
Tópicos en Inteligencia Artificial I Universidad Católica San Pablo.
Support Vector Machines.  Vocabulario básico: ◦ Repositorio de datos ◦ Atributos y Instancias ◦ Aprendizaje supervisado  Clasificación (Clase) ◦ Aprendizaje.
Redes Neuronales Artificiales (ANN)

Unsupervised visual learning of three-dimensional objects using a modular network architecture Ando, Suzuki, Fujita Neural Networks 12 (1999)
Funciones de Transferencia Presentado por: Niyireth Villabón Molina. Nora Juliana Solanilla V. Jesús Albeiro Agudelo.
Transcripción de la presentación:

Introduccion a las Redes de Funciones de Base Radial Tomado de Tai-Wen Yue http://aimm02.cse.ttu.edu.tw

Contenido Modelo de un aproximador de funciones La redes de funciones de base radial Las redes RBF para aproximar funciones

Introduccion a las Redes de Funciones de Base Radial Modelo de un aproximador de funciones

Aproximacion de una funcion Desconocida f Aproximadora ˆ f

Las redes neuronales como aproximadoras universales Las redes feed-forward con una sola capa oculta de neuronas sigmoidales son capaces de aproximar uniformemente cualquier funcion continua multivariable, con cualquier grado de precision. Hornik, K., Stinchcombe, M., and White, H. (1989). "Multilayer Feedforward Networks are Universal Approximators," Neural Networks, 2(5), 359-366.

Las redes neuronales como aproximadoras universales Tambien se demuestra que las redes RBF (Radial Basis Function) son aproximadores universales. Park, J. and Sandberg, I. W. (1991). "Universal Approximation Using Radial-Basis-Function Networks," Neural Computation, 3(2), 246-257. Park, J. and Sandberg, I. W. (1993). "Approximation and Radial-Basis-Function Networks," Neural Computation, 5(2), 305-316.

El Modelo Lineal Pesos Funciones base fijas

Salida pesada linealmente El modelo lineal y 1 2 m x1 x2 xn w1 w2 wm x = Salida pesada linealmente Unidades de salida Descomposicion Extracion de caract. Transformacion Unidades ocultas Entradas Vector de caracteristicas

Salida pesada linealmente El Modelo Lineal ¿Ejemplo de algunas bases? y Salida pesada linealmente Unidades de salida w1 w2 wm Descomposicion Extracion de caract. Transformacion Unidades ocultas 1 2 m Entradas Vector de caracteristicas x = x1 x2 xn

Ejemplo de modelos lineales ¿Son estas bases ortogonales? Polinomial Series de Fourier

Perceptron de una sola capa como aproximador universal y 1 2 m x1 x2 xn w1 w2 wm x = Con un numero suficiente de unidades sigmoidales, puede construirse un aproximador universal. Unidades ocultas

Red de funciones de base radial como aproximador universal y 1 2 m x1 x2 xn w1 w2 wm x = Con un numero suficiente de funciones de base radial, puede construirse un aproximador universal. Unidades ocultas

Introduccion a las Redes de Funciones de Base Radial La redes de funciones de base radial

Funciones de base radial Tres parametros para una funcion radial: i(x)= (||x  xi||) xi Centro Medida de distancia Forma r = ||x  xi|| 

Funciones radiales Tipicas Gausiana Multicuadratica Multicuadratica inversa

Funcion base Gausiana (=0.5,1.0,1.5)

Multicuadratica inversa

Basis {i: i =1,2,…} is `near’ orthogonal. RBF mas general + + +

Topologia de la RBF x1 x2 xn y1 ym Como un aproximador de funciones Unidades de salida Interpolacion Unidades ocultas Proyeccion entradas Vector de caracteristicas

Topologia de la RBF Como clasificador x1 x2 xn y1 ym Unidades de salida Clases Unidades ocultas Subclases entradas Vector de caracteristicas

Introduccion a las Redes de Funciones de Base Radial Las redes RBF para aproximar funciones

Datos de entrenamiento La idea y Funcion desconocida a aproximar Datos de entrenamiento x

La idea y x Funcion desconocida a aproximar Datos de entrenamiento Funciones base (Kernels)

Funciones base (Kernels) La idea y Funcion aprendida x Funciones base (Kernels)

Funciones base (Kernels) La idea Muestra no aprendida y Funcion aprendida x Funciones base (Kernels)

La idea Muestra no aprendida y Funcion aprendida x

Redes RBF como Aproximadoras universales Conjunto de entrenamiento x1 x2 xn w1 w2 wm x = objetivo for all k

Aprendizaje del vector de pesos optimo Conjunto de entrenamiento x1 x2 xn x = objetivo for all k w1 w2 wm

Regularizacion Conjunto de entrenamiento Si no se necesita regularizacion objetivo for all k

Aprendizaje del vector de pesos optimo Minimizar

Aprendizaje del vector de pesos optimo Definir

Aprendizaje del vector de pesos optimo Definir

Aprendizaje del vector de pesos optimo

Aprendizaje del vector de pesos optimo Matriz de diseño Matriz de variancia

Conjunto de entrenamiento Resumen

Reconocimiento Diapositivas tomadas de Tai-Wen Yue “Artificial Neural Networks” course slides Tatung University. Taipei, Taiwan. 5th june 2006