Emerson Alvarado Matamoros A40235 Ricardo Alvarado Villalobos A60289

Slides:



Advertisements
Presentaciones similares
DIRECCIÓN ESTRATÉGICA DE LA EMPRESA-CC. TRABAJO
Advertisements

Algoritmos y Programas
HTML (Historia) Rogelio Ferreira Escutia. 2 HTML, septiembre 2010 ¿Qué es? HTML, siglas de HyperText Markup Language.
CSS Rogelio Ferreira Escutia. 2 Hojas de estilo cascada, mayo 2010 Definición La hojas de estilo en cascada (en inglés.
PLANES DE ESTUDIO 2010 Módulo de Especialidad en Tecnologías Web Rogelio Ferreira Escutia.
Complejidad Computacional
Vera Olivera, David Carlos Marín Rosales, Nicolae Harry
Introducción a las Redes neuronales
Cuestiones y problemas
Experimentación Numérica
COMPETENCIAS: ESTRUCTURA Y DINÁMICA PLANEATIVA
UNIVERSIDAD NACIONAL DE INGENIERÍA
Diseño de Sistemas Operativos Ing. Ángel Caffa
Enfoques de la IA Ana Lilia Laureano-Cruces
Marco Matamala Castro Prof. Guía Luis Zamorano Riquelme
1 Circuitos Digitales II Circuitos Digitales II Fundamentos de Arquitectura de Computadores Información sobre el Curso Semana No.1 Semestre Prof.
GESTION DE LA CALIDAD ALIMENTARIA. Unidad 1: UNIDAD 1 CALIDAD EN LA INDUSTRIA DE LOS ALIMENTOS Objetivos -Interpretar y analizar los diferentes conceptos.
Arquitectura de computadoras
Experiencia Docente: Dificultades de razonamiento lógico matemático en alumnos de bachillerato J. Jesús Salas Ramírez.
Ingeniería en Sistemas computacionales Fundamentos de programación
Profra: Verónica Pérez Rosas Introducción a la Programación Universidad Politécnica de Altamira.
ESTADO ACTUAL TRANSFORMACIÓN CURRICULAR PROGRAMAS DE PREGRADO 2010 ESTADO ACTUAL TRANSFORMACIÓN CURRICULAR PROGRAMAS DE PREGRADO 2010 Universidad de Antioquia.
Informática Educativa Bogotá 2011 – Universidad de Santander UDES
Ingeniería en Computación Dr. Ignacio Algredo Badilo
MATLAB MAYO 5 DEL 2005 IMPLEMENTACION DE LA FUNCION LOGICA XOR, MEDIANTE UN MODELO NEURONAL Y EL ALGORITMO BACKPROPAGATION EXPOSITORES: ANDRES FELIPE RESTREPO.
Red Neuronal de Contrapropagación
Curso Circuitos Digitales I Sesión 2 (complemento)
Máquinas con Vectores de Soporte - SVM
ELECTROTECNIA Circuitos de Corriente Alterna (Elementos de circuito)
Puerto Vallarta, Jalisco, noviembre 9 al 12 de 2010.
Lógica de Programación
IAR134 Procesamiento de Señales
1  2008 Universidad de Las Américas - Ingeniería de Software : Dr. Juan José Aranda Aboy ACI491: Ingeniería de Software Unidad 7: Proceso de Ingeniería.
Redes Neuronales Artificiales Curso Básico Federico Morán Algunos enlaces de interés
ENSEÑANZA Y APLICACIÓN DE MÉTODOS ÁGILES PARA EL DESARROLLO DE UNA APLICACIÓN COMPUTACIONAL Jorge Cornejo Elgueta ENSEÑANZA Y APLICACIÓN DE MÉTODOS ÁGILES.
Profesor Guía : Sr. Alvaro Valencia M.
1 Transmisión Eléctrica Héctor Contreras Bravo Jesús Sánchez Gil.
Indicadores de Desempeño
DEPARTAMENTO DE CIENCIAS E INGENIERÍA DE LA COMPUTACIÓN UNIVERSIDAD NACIONAL DEL SUR Año 1º 2º 3º 4º 5º Programación Matemática Software Sistemas de Hardware.
Redes Neuronales Artificiales Tarea 4 Regla Delta Redes Neuronales Artificiales Tarea 4 Regla Delta Dr. Juan José Flores Romero División de Estudios de.
REDES NEURONALES ARTIFICIALES
1 2 Seminario “Gestión del Conocimiento: realidades y perspectivas” Mesa 3: Gestión del Conocimiento en el Sector.
Estadística Administrativa II
Sistema de Gestión de la Calidad
Sistema de Reconocimiento de Patrones en Actividad Neural Autores: Susana Donoso, Keber Flores B, Yashir Henríquez. Profesor: Dino Araya S. Universidad.
INTRODUCCIÓN A REDES NEURONALES ARTIFICIALES TEORÍA Y APLICACIONES
CONFERENCIA FILTRO LINEAL Y RED DE REGRESIÓN GENERALIZADA: Arquitecturas Neuronales Empleadas en la Aplicación del Censo Poblacional JAIRO PERTUZ CAMPO.
Introducción Calculabilidad clásica Computación celular
Redes Neuronales Monocapa
Proyecto Aula Facultad de Contaduría Gestión y Dirección de Negocios
RECOMENDACIÓN, BÚSQUEDA, RANKING, APRENDIZAJE UNIVERSITAT OBERTA CATALUNYA CARLOTA VIÑA SIRGO.
Integrantes: Daniel Peña Alfredo Zuñiga
TEORÍA MODERNA DE LA FIRMA1. 2 RNA SOLUCIÓN PROBLEMAS COMPLEJOS RECONOCIMIEN TO DE FORMAS Y PATRONES CONTROL Y OPTIMIZACIÓN PREDICCIÓN Y CODIFICACIÓN.
Aplicaciones de las Redes Neuronales Artificilaes Dr. Héctor Allende
Redes Neuronales Artificiales Tarea 5 BackPropagation I Redes Neuronales Artificiales Tarea 5 BackPropagation I Dr. Juan José Flores Romero División de.
Redes Neuronales Artificiales Tarea 6 BackPropagation II Redes Neuronales Artificiales Tarea 6 BackPropagation II Dr. Juan José Flores Romero División.
Redes Neuronales Artificiales
REDES NEURONALES.
Redes Neuronales Artificiales
Universidad de los Andes Núcleo Universitario Alberto Adriani Inteligencia Artificial Ingeniería de Sistemas.
REDES NEURONALES ARTIFICIALES TEORÍA Y APLICACIONES
Redes Neuronales BPN - Backpropagation Networks
Redes Neuronales Artificiales Entrenamiento por Retropropagación del Error-Backpropagation Dr. Pedro Ponce Cruz EGIA-MCI.
Redes neuronales feed-forward
Introducción a los Sistemas Inteligentes
Redes Neuronales Artificiales Tarea 1 Simulación de OR con una Sola Neurona Redes Neuronales Artificiales Tarea 1 Simulación de OR con una Sola Neurona.
Desde el principio de la humanidad se soñó con el desarrollo de máquinas que puedan imitar la capacidad de aprendizaje del hombre. Actualmente es un desafío.
La Biología como Alternativa Computacional Nuevos Paradigmas de Computación inspirados en la Biología Mario de J. Pérez Jiménez, Fernando Sancho Caparrini.
Algoritmos Algoritmos Un algoritmo es una serie de pasos lógicos, que se estructuran para resolver un problema. Generalmente un algoritmo se compone de.
OBJETIVOS DE LOS PROGRAMAS DE ESTUDIO: SESIÓN DE TRABAJO 3 DE SEPTIEMBRE DE 2013 SECRETARÍA GENERAL SECRETARÍA DE APOYO A LA DOCENCIA.
Transcripción de la presentación:

Emerson Alvarado Matamoros A40235 Ricardo Alvarado Villalobos A60289 COMPARACIÓN DE LAS REDES NEURONALES DE TIPO RETROPROPAGACIÓN Y CONTRAPROPAGACIÓN EN TÉRMINOS DE EFICIENCIA Y RENDIMIENTO, AL SER UTILIZADO EN EL RECONOCIMIENTO DE FIGURAS GEOMETRICAS SIMPLES. Emerson Alvarado Matamoros A40235 Ricardo Alvarado Villalobos A60289

Objetivos del proyecto Objetivo General: Realizar un análisis de rendimiento y eficiencia entre las redes neuronales artificiales de tipo retropropagación (backpropagation) y contrapropagación (counterpropagation). Emerson Alvarado–A40235 & Ricardo Alvarado–A60289

Objetivos de la investigación (cont) Objetivos Específicos: Comprender la importancia de la utilización de un paradigma alterno, diferente a los tradicionales, para la resolución de un problema especifico. Emerson Alvarado–A40235 & Ricardo Alvarado–A60289

Objetivos de la investigación (cont) Objetivos Específicos: Implementar y comprender el funcionamiento tanto de una red neuronal de tipo retropropagación como el de una de tipo contrapropagación, sus algoritmos, diferencias y similitudes en implementación y diseño de capas. Emerson Alvarado–A40235 & Ricardo Alvarado–A60289

Objetivos de la investigación (cont) Objetivos Específicos: Realizar el entrenamiento de las redes neuronales para que sean capaces de reconocer figuras geométricas simples. Emerson Alvarado–A40235 & Ricardo Alvarado–A60289

Objetivos de la investigación (cont) Objetivos Específicos: Analizar la eficacia y rendimiento de ambas redes para la resolución del problema específico. Emerson Alvarado–A40235 & Ricardo Alvarado–A60289

Hipótesis planteadas La red de contraprogación tiene más eficiencia en el aspecto de tiempo, tanto de entrenamiento como de ejecución, con respecto a la red de retropropagación. La red de contraprogación es eficiente para resolver este problema, ya que para en casos generales de clasificación, su estructura la convierte en una solución ideal para dicha tarea. Emerson Alvarado–A40235 & Ricardo Alvarado–A60289

Estructura de la red RP 3 capas: entrada, oculta y salida Entrenamiento supervisado Entrenamiento se hace en conjunto: se entrenan tanto los pesos de la capa de salida como los de la capa oculta en un mismo entrenamiento Emerson Alvarado–A40235 & Ricardo Alvarado–A60289

Estructura de la red CP 3 capas(modelo original consta de 5): Entrada, capa oculta y capa de salida Capa de entrada normaliza mediante la formula Se entrena la capa oculta de forma no supervisada mediante la formula de entrenamiento: W(t+1) = W(t)+α(X-W) Capa oculta competitiva La capa de salida se encarga de mapear la neurona ganadora a un resultado interpretable Emerson Alvarado–A40235 & Ricardo Alvarado–A60289

Descripción de la aplicación Programa que reconoce figuras geométricas simples mediante una red de retropropagación y una red de contrapropagación. Reporta datos de tiempo de ejecución de ambas redes, tiempo de entrenamiento de cada una, tiempo de procesamiento de una petición. La idea es comparar el desempeño de ambas redes en un problema especifico. Emerson Alvarado–A40235 & Ricardo Alvarado–A60289

Grafico 1: análisis de resultados en tiempo para 200 muestras. Resultados obtenidos Grafico 1: análisis de resultados en tiempo para 200 muestras. Emerson Alvarado–A40235 & Ricardo Alvarado–A60289

Grafico 2: análisis de resultados en tiempo para 400 muestras Resultados obtenidos Grafico 2: análisis de resultados en tiempo para 400 muestras Emerson Alvarado–A40235 & Ricardo Alvarado–A60289

Problemas pendientes Clasificación en la capa de instar de la red de contrapropagación. Patrones parecidos. Imagen muy “pixeleada” Emerson Alvarado–A40235 & Ricardo Alvarado–A60289

Conclusiones y resolución de las hipótesis La hipótesis planteada de que las redes neuronales de contrapropagación son más rápidas en tiempo que sus pares de retropropagación es cierta. La hipótesis de que la red de contrapropagación es mejor que su par en cuanto a tiempo no es comprobable en este caso, pues no nos fue posible lograr una clasificación mejor de los conjuntos en la red de contrapropagación, por lo que existían muchas entradas erróneas Emerson Alvarado–A40235 & Ricardo Alvarado–A60289

Referencias Redes neuronales: algoritmos, aplicaciones y técnicas de programación, James A Freeman, David M. Skapura. Editorial Addison Wesley, 1993. Redes Neuronales Artificiales, José R. Hilera y Victor J Martinez. Editorial Alfaomega. Madrid. España, 2000   Digital Neural Networks, S. Y. Kung. Editorial Prentice Hall, 1993 Redes neuronales artificiales: Fundamentos, modelos y aplicaciones, Sandra Daza P. Universidad Militar Nueva Granada. Facultad de Ingeniería Mecatrónica, Colombia Emerson Alvarado–A40235 & Ricardo Alvarado–A60289

Referencias Backpropagation, Sección de redes neurales artificiales de Electrónica México. Consultado el 10 de setiembre del 2010. http://www.electronica.com.mx/neural/informacion/backpro pagation.html   Redes Neuronales Artificiales, Grupo de Circuitos: Departamento de señales, sistemas y radiocomunicaciones de la Universidad Politécnica de Madrid. Consultado el 10 de setiembre del 2010. http://www.gc.ssr.upm.es/inves/neural/ann2/anntutorial.ht ml Redes Neuronales Artificiales, Sección de redes neurales artificiales de Electrónica México. Consultado el 10 de setiembre del 2010. http://electronica.com.mx/neural/ Emerson Alvarado–A40235 & Ricardo Alvarado–A60289

Referencias Redes de Contrapropagación: Creación de subredes mediante memorias heteroasociativas. Dr. Héctor Allende, Universidad Técnica Federico Santamaría, Chile. http://www.inf.utfsm.cl/~hallende/download/capitulo_5.ppt   Redes Neuronales, Sección de redes neuronales artificiales de la Universidad de Antioquia. Consultado el 30 de octubre del 2010. http://ingenieria.udea.edu.co/investigacion/mecatronica/me ctronics/redes.htm Sección de Ciencias de la Computación de la Universidad de Birmingham. Consultado el 30 de octubre del 2010. http://www.cs.bham.ac.uk/~mmk/Teaching/AI/figures/back propagation.jpg Emerson Alvarado–A40235 & Ricardo Alvarado–A60289