Tipos de redes neuronales Perceptrón multicapa Redes de respuesta radial Competitivas Clasificación Mapa topológico.

Slides:



Advertisements
Presentaciones similares
Redes Neuronales de Retropropagación
Advertisements

Introducción a las Redes neuronales
DATA MINING MINERIA DE DATOS Gersom Costas.
Silvana Arias Carla Espinosa Livia Loaiza INGENIERIA EN SISTEMAS
Mapas Autoorganizados
6. Sistemas Autoorganizados
PROYECTO DE GRADO CARLOS STALIN ALVARADO SANCHEZ
ESCUELA POLITÉCNICA DEL EJÉRCITO
MATLAB MAYO 5 DEL 2005 IMPLEMENTACION DE LA FUNCION LOGICA XOR, MEDIANTE UN MODELO NEURONAL Y EL ALGORITMO BACKPROPAGATION EXPOSITORES: ANDRES FELIPE RESTREPO.
Definición Machine learning traducido al español significa el aprendizaje automático o también aprendizaje de las maquinas. A partir de esto podemos darle.
Redes neuronales2 José Edinson Aedo Cobo Depto. de Ing. Electrónica.
Prof. Ramón Garduño Juárez Modelado Molecular Diseño de Fármacos
LO NUEVO EN SPSS 16.0.
Clustering (Agrupamiento)
Regresión y correlación
APRENDIZAJE WIDROW- HOFF
Redes Neuronales Artificiales
Seminario Científico Internacional 2008 de invierno (SCI 2008i) - Francisco García Fernández. Dr. Ingeniero de Montes - Luis García Esteban. Dr. Ingeniero.
FUNDAMENTOS DE DATA MINING Y SUS APLICACIONES N. QUEIPO, S. PINTOS COPYRIGHT 2000 CLASIFICACIÓN NO SUPERVISADA.
Estadística Descriptiva: 4. Correlación y Regresión Lineal
Tema 2: Métodos de ajuste
RECONOCIMIETO DE PATRONES
INCORPORACIÒN DE LA SIMULACIÓN VÍA REDES NEURONALES COMO HERRAMIENTA DE UNIVERSALIZACIÓN DEL CONOCIMIENTO. M.Sc. Manuel Marqués 1*, Dr. Luis Oliva Ruiz.
INTRODUCCIÓN A REDES NEURONALES ARTIFICIALES TEORÍA Y APLICACIONES
Análisis Discriminante
Regresión lineal. Definición del problema Evaluar la capacidad explicativa de un conjunto de características socio demográficas que inciden en los ingresos.
Diplomado "Gestión de Negocios con Data Warehouse y Data Mining".
Introducción Calculabilidad clásica Computación celular
Redes Neuronales Monocapa
El Perceptrón Multicapa
Mario Francisco, Pastora Vega
Ejemplo de aplicación de las ANN
1 Problema no separable linealmente Se busca obtener un algoritmo más general que permita integrar el aprendizaje entre las dos capas.
Redes Neuronales Artificiales Autoorganizadas
Pronósticos, Series de Tiempo y Regresión
PREVISIÓN DE SERIES TEMPORALES MEDIANTE REDES NEURONALES ARTIFICIALES
Mt. Martín Moreyra Navarrete.
3. Funciones discriminantes para la f.d.p normal.
Reconocimiento de Patrones
Caso: Situación de las Comunidades Autónomas españolasen cuanto a indicadores de bienestar En el periódico “El País” del día 17 de enero de 2002 se publicó.
Aprendizaje de Agentes II Alberto Reyes Ballesteros Programa ITESM-IIE Doctorado en Ciencias Computacionales.
Red de Minería y Aprendizaje Grupo de Aprendizaje Automático Universidad de Oviedo en Gijón Selección de Atributos en Aprendizaje.
Redes Competitivas.
Neurona  elemento de proceso Variantes y combinaciones: gran flexibilidad: ¿demasiada? Aprendizaje flexible:  Redes neuronales Respuesta de elemento.
REDES NEURONALES.
Titular: Agustín Salvia
Análisis de la Varianza
Aprendizaje Automatizado
Redes Neuronales Artificiales 2 - Aprendizaje
Introduccion a las Redes de Funciones de Base Radial
Regresión lineal simple
Sabemos reconocerlas, y calcularlas como soluciones de sistemas de ecuaciones, o de desigualdades Buscamos métodos de cálculo generales y eficientes Problemas.
Redes Neuronales BPN - Backpropagation Networks
Redes Neuronales Artificiales Entrenamiento por Retropropagación del Error-Backpropagation Dr. Pedro Ponce Cruz EGIA-MCI.
Redes neuronales feed-forward
Algoritmo de Retropropagación. Conclusiones de Retropropagación n 1. Si la neurona j es un nodo de salida es igual al producto de la derivada y la señal.
Identificacion con redes neuronales
Maracaibo, 26 de Mayo de 2006 Universidad del Zulia Facultad de Ingeniería División de Postgrado Maestría en Computación Aplicada Universidad del Zulia.
INTELIGENCIA ARTIFICIAL. Redes Neuronales Artificiales Mecanismos de aprendizaje ◦ Entrada x ◦ Salida y ◦ Peso w ◦ Transferencia ~
REDES NEURONALES TEORÍA MODERNA DE LA FIRMA 2010.
Algoritmo de Retropropagación. Notación n i, j, k son índices de las neuronas en las distintas capas.
Estrategia de análisis Con introducción al análisis multivariante.
Ángel Berihuete Francisco Álvarez
DETECCION DE SEÑALES BINARIAS EN RUIDO GAUSSIANO El criterio de toma de decisión fue descrito por la ecuación Un criterio muy usado para escoger el nivel.
Redes Neuronales.
ANÁLISIS DE COVARIANZA En algunas circunstancias, un experimento está afectado por la intervención de un factor muchas veces imprevisible y que no puede.
REDES NEURONALES ARTIFICIALES (SOM - Kohonen)
METODO DE MAXIMA PENDIENTE
Redes Neuronales Artificiales (ANN)
Unsupervised visual learning of three-dimensional objects using a modular network architecture Ando, Suzuki, Fujita Neural Networks 12 (1999)
Transcripción de la presentación:

Tipos de redes neuronales Perceptrón multicapa Redes de respuesta radial Competitivas Clasificación Mapa topológico

Objetivos Para cada uno de los tipos de red: Idea básica de estructura Cómo calcular su respuesta Ideas básicas de diseño de la arquitectura Proceso de aprendizaje o ajuste de pesos Tipo de respuesta que ofrece

Tipos de redes neuronales Perceptrón multicapa Redes de respuesta radial Competitivas

Perceptrón multicapa - Idea

Procesadores Capa de salida Capa oculta

Perceptrón multicapa - Idea Conexiones

Perceptrón multicapa - Cálculo Cada procesador recibe una serie de entradas Puede considerarse asociado a y 0  1 y calcula su salida Afín a la logística

Perceptrón multicapa - Cálculo

Perceptrón multicapa - Cálculo

Perceptrón multicapa - Diseño Diseño: Genérico: nº de grados de libertad, búsqueda y selección Constructivo: procesador a procesador, añadir y comparar Destructivo: grande y eliminar

Perceptrón multicapa - Respuesta 1

Perceptrón multicapa - Respuesta ,1 1,-1 -1,-1 -1,1 1

Perceptrón multicapa - Respuesta

Perceptrón multicapa - Respuesta

Perceptrón multicapa - Aprendizaje Con ciertos pesos la red da una salida. Esa salida tiene un error Buscamos los pesos que nos dan el error más pequeño

Perceptrón multicapa - Aprendizaje Ajuste de pesos: optimización basada en gradiente Con error cuadrático y activación tangente hiperbólica Métodos: Descenso gradiente Gradiente conjugado Levenberg-Marquardt Métrica variable...etc...

Perceptrón multicapa - Aprendizaje

Perceptrón multicapa - Aprendizaje

Tipos de redes neuronales Perceptrón multicapa Redes de respuesta radial Competitivas

Base radial - Idea

Base radial - Cálculo Cada procesador oculto recibe una serie de entradas y calcula su salida Es una expresión de una gaussiana con varianza unitaria. Podría haber una matriz de varianzas diagonal ( ancho de respuesta ) o incluso una matriz completa El procesador de salida da una combinación lineal de los ocultos

Base radial - Cálculo

Base radial - Cálculo

Base radial - Diseño Diseño: Constructivo: procesador a procesador cuando la respuesta baja de un umbral

Base radial - Aprendizaje Ajuste de pesos: normalmente dos fases 1.Entrada-oculta 2.Oculta-salida Los pesos de entrada a capa oculta se ajustan buscando agrupamiento de entradas, sin tener en cuenta la salida 1.Valores iniciales: puntos de la muestra 2.Nuevo valor de pesos: media de las entradas para las que este procesador ha sido el de respuesta mayor Los pesos de salida son lineales: regresión

Base radial - Aprendizaje Puntos para los que ha sido el máximo Nuevos

Base radial - Respuesta

Tipos de redes neuronales Perceptrón multicapa Redes de respuesta radial Competitivas

Competitivas - Idea Los procesadores pueden estar ordenados en retícula (mapa topológico autoorganizativo: MA), con coordenadas

Competitivas - Cálculo Cada procesador recibe una serie de entradas y calcula su salida Los pesos definen un centroide de un grupo de entradas En MA es más usual

Competitivas - Cálculo

Competitivas - Cálculo

Competitivas - Cálculo

Competitivas - Cálculo

Competitivas - Diseño Diseño: Constructivo: procesador a procesador cuando la respuesta baja de un umbral Destructivo: eliminación de procesadores que no dan respuesta

Competitivas - Aprendizaje Ajuste de pesos normalmente no supervisado En competitivas a secas: En MA:

Competitivas - Aprendizaje (0,0) (0,1) (1,0) (1,1) T(n=3) Dist

Competitivas - Respuesta

Mapas topológicos autoorganizativos - Respuesta