Redes Auto-organizadas

Slides:



Advertisements
Presentaciones similares
INTRODUCCION A TECNICAS DE MINERIA DE DATOS
Advertisements

Silvana Arias Carla Espinosa Livia Loaiza INGENIERIA EN SISTEMAS
6. Sistemas Autoorganizados
7. Máquinas Estocásticas
Autora: Carmen Alonso Montes Director: Manuel González Penedo
REDES NEURONALES Universidad Autónoma del estado de hidalgo
Red Neuronal de Contrapropagación
Redes basadas en competición
Redes neuronales2 José Edinson Aedo Cobo Depto. de Ing. Electrónica.
Clustering (Agrupamiento)
El Perceptrón  El psicólogo Frank Ronsenblant desarrolló un modelo simple de neurona basado en el modelo de McCulloch y Pitts que utilizaba.
Seminario Científico Internacional 2008 de invierno (SCI 2008i) - Francisco García Fernández. Dr. Ingeniero de Montes - Luis García Esteban. Dr. Ingeniero.
Redes Neuronales Monocapa
Ejemplo de aplicación de las ANN
1 Problema no separable linealmente Se busca obtener un algoritmo más general que permita integrar el aprendizaje entre las dos capas.
Redes Neuronales Artificiales Autoorganizadas
Tipos de redes neuronales Perceptrón multicapa Redes de respuesta radial Competitivas Clasificación Mapa topológico.
Aplicaciones de las Redes Neuronales Artificilaes Dr. Héctor Allende
Redes Neuronales Artificiales Tarea 5 BackPropagation I Redes Neuronales Artificiales Tarea 5 BackPropagation I Dr. Juan José Flores Romero División de.
Redes Neuronales Artificiales
Aprendizaje de Agentes II Alberto Reyes Ballesteros Programa ITESM-IIE Doctorado en Ciencias Computacionales.
Modelos Computacionales
Redes Competitivas.
REDES NEURONALES.
Redes Neuronales Artificiales
Aprendizaje Automatizado
Redes Neuronales Artificiales 2 - Aprendizaje
REDES NEURONALES ARTIFICIALES TEORÍA Y APLICACIONES
Aprendizaje No Supervisado y Redes de Kohonen
Redes Neuronales BPN - Backpropagation Networks
Redes Neuronales Artificiales Entrenamiento por Retropropagación del Error-Backpropagation Dr. Pedro Ponce Cruz EGIA-MCI.
Redes neuronales feed-forward
Algoritmo de Retropropagación. Conclusiones de Retropropagación n 1. Si la neurona j es un nodo de salida es igual al producto de la derivada y la señal.
Algoritmo de Retropropagación. Notación n i, j, k son índices de las neuronas en las distintas capas.
Portafolio de evidencias
ESCALAMIENTO MULTIDIMENSIONAL
Desde el principio de la humanidad se soñó con el desarrollo de máquinas que puedan imitar la capacidad de aprendizaje del hombre. Actualmente es un desafío.
Ángel Berihuete Francisco Álvarez
AUTOR: JORGE LUIS RAMÍREZ TORRES DIRECTOR: ING. VÍCTOR PROAÑO, MSc. CODIRECTOR: ING. ABG. DARWIN ALULEMA, MSc. Sangolqui - Ecuador 2015.
REDES NEURONALES ARTIFICIALES (SOM - Kohonen)
Funciones de Transferencia Presentado por: Niyireth Villabón Molina. Nora Juliana Solanilla V. Jesús Albeiro Agudelo.
UNIVERSIDAD NACIONAL DE TRUJILLO INGENIERÍA DE SISTEMAS Docente: Poemape Rojas Gloria Integrantes: BARRANTES NAUCA KELY EAST POMA GROBY INFANTE QUISPE.
BÚSQUEDA DE SOLUCIONES Soluciones no Informadas (cont.) Dra. Myriam Hernández A.
Pedro Salcedo, Angélica Pinninghoff, Ricardo Contreras
VENTAJAS DEL ALGORITMO LMS
INTELIGENCIA ARTIFICIAL REDES NEURONALES
Computational influence of adult neurogenesis on memory endoding
Robust parameter estimation for mixture model
Comparación de Modelos Neuronales Utilizadas en la Toma de Decisiones
SOM: Modelos de mapas Auto-organizativos
Inteligencia Computacional
Robust parameter estimation for mixture model
INTRODUCCIÓN A LAS REDES NEURONALES
Aplicación de red neuronal “Back Propagation”:
MODULAR SIMULTÁNEO TIPOS DE SIMULADORES
Algoritmos geneticos. Función de propagación o ponderación Esta función se encarga de transformar las diferentes entradas que provienen de la sinapsis.
INFORMÁTICA INDUSTRIAL: ALGORITMOS NEURODIFUSOS ANFIS, CANFIS Integrantes Aguirre Katherine Basantes David Chávez Jorge Cusco Jhon Yanguicela Jairo.
Redes Neuronales Artificiales
El Perceptrón Multicapa. Criterio para la determinación de los pesos sinápticos: Regla de Aprendizaje:
PATRON LINEAL.
 La minería de datos o exploración de datos (es la etapa de análisis de "Knowledge Discovery in Databases" o KDD) es un campo de la estadística y las.
Máster de Tecnologías de Telecomunicación
características algoritmo algoritmo algoritmo
Radial basis functions
Portafolio de evidencias
Estimación 4 de software Tamaño Costo Duración Personas Mtro. Edgar Cossio Mayo 2016.
Luis Manuel Monroy García Matemáticas discretas Ingeniería de Sistemas Universidad Simón Bolívar.
UNIVERSIDAD TECNICA DE AMBATO Convergencia de medios.
UNIVERSIDAD TECNICA DE AMBATO CONVERGENCIA DE MEDIOS.
TIPOS DE ALGORITMO DE APRENDIZAJE Aprendizaje Supervisado Aprendizaje no Supervisado Aprendizaje por Refuerzo.
Transcripción de la presentación:

Redes Auto-organizadas Universidad Autónoma del estado de hidalgo REDES NEURONALES Redes Auto-organizadas Facilitador: Dr. Joel Suarez Autor: Ing. Henry P. Paz Arias

Arquitectura Cada neurona tiene un vector de pesos W de entrada asociado y la neurona con el vector de peso más cercano a la entrada P se activará.

Caracteristicas Es una red no supervisada, se entrena solo con patrones de entrada Las entradas se conectan a una única capa de neuronas donde cada nodo se conecta a su vecino y solo puede haber una neurona activa La conexión puede ser lineal, cuadrada, hexagonal, irregular, etc.

Convergencia

Algoritmo de Aprendizaje

Entrenamiento En los SOFM (Self-organizing Feature Map ), no solo se actualiza los pesos de la neurona que resulta ganadora en el aprendizaje, sino que se actualizan también los de la vecindad.

Procedimiento 1. Asignar valores iniciales aleatorios pequeños a los pesos wij 2. Escoger un vector de entrada x del espacio de muestras y aplicarlo como entrada. 3. Encontrar el nodo de salida ganador (el producto punto máximo)

Procedimiento (cont…) 4. Ajustar los vectores de peso de acuerdo a la siguiente formula de actualización: wnuevos= wviejos + α [xi- wviejos ] h(|i-g|,R(t)) donde α es la tasa de aprendizaje y h(|i-g|,t) es la función de vecindad.

Procedimiento (cont…) Modificación de los parámetros T0 es el numero total de iteraciones α0 es la razón inicial de aprendizaje y t va desde 1,2,…. T0

Procedimiento (cont…) 5. Repetir pasos 2 a 4 hasta que no ocurran cambios significativos en los pesos.

DEMO