Redes Neuronales Artificiales Tarea 6 BackPropagation II Redes Neuronales Artificiales Tarea 6 BackPropagation II Dr. Juan José Flores Romero División.

Slides:



Advertisements
Presentaciones similares
INTRODUCCION A TECNICAS DE MINERIA DE DATOS
Advertisements

Introducción a las Redes neuronales
ENSEÑANZA DE LOS JUEGOS MATEMÁTICOS PRIMER CICLO BÁSICO NB1.
Silvana Arias Carla Espinosa Livia Loaiza INGENIERIA EN SISTEMAS
REDES NEURONALES Universidad Autónoma del estado de hidalgo
SISTEMA OPERATIVO Un sistema operativo es un programa básico (el más básico y necesario) que controla una computadora. El sistema operativo oculta la complejidad.
Subir la tarea a la plataforma de Senati virtual
MATLAB MAYO 5 DEL 2005 IMPLEMENTACION DE LA FUNCION LOGICA XOR, MEDIANTE UN MODELO NEURONAL Y EL ALGORITMO BACKPROPAGATION EXPOSITORES: ANDRES FELIPE RESTREPO.
Emerson Alvarado Matamoros A40235 Ricardo Alvarado Villalobos A60289
Redes neuronales2 José Edinson Aedo Cobo Depto. de Ing. Electrónica.
Algoritmo y Estructura de Datos I
Clustering (Agrupamiento)
Redes Neuronales Artificiales Tarea 4 Regla Delta Redes Neuronales Artificiales Tarea 4 Regla Delta Dr. Juan José Flores Romero División de Estudios de.
REDES NEURONALES ARTIFICIALES
Escuela: Colegio de Bachilleres plantel 14 Nombre del alumno: Chícharo flores José yabir Zamora Arcos Rubén Nombre de la Profesora: Andrea Baltazar Juárez.
Grado en Ingeniería electrónica y comunicaciones Facultad de Físicas Universidad Complutense P1 Fundamentos de Programación.
Seminario Científico Internacional 2008 de invierno (SCI 2008i) - Francisco García Fernández. Dr. Ingeniero de Montes - Luis García Esteban. Dr. Ingeniero.
Visualizador de señales digitales SDLC++ José Domingo Álvarez Hervás.
Diplomado "Gestión de Negocios con Data Warehouse y Data Mining".
Redes Neuronales Monocapa
UNIVERSIDAD MICHOACANA DE SAN NICOLÁS DE HIDALGO
1 Problema no separable linealmente Se busca obtener un algoritmo más general que permita integrar el aprendizaje entre las dos capas.
RECOMENDACIÓN, BÚSQUEDA, RANKING, APRENDIZAJE UNIVERSITAT OBERTA CATALUNYA CARLOTA VIÑA SIRGO.
Arquitectura de Máquinas Computadoras II
Integrantes: Daniel Peña Alfredo Zuñiga
TEORÍA MODERNA DE LA FIRMA1. 2 RNA SOLUCIÓN PROBLEMAS COMPLEJOS RECONOCIMIEN TO DE FORMAS Y PATRONES CONTROL Y OPTIMIZACIÓN PREDICCIÓN Y CODIFICACIÓN.
Aplicaciones de las Redes Neuronales Artificilaes Dr. Héctor Allende
Sistemas Digitales Electrónica Digital I Universidad Autónoma de Nuevo León Facultad de Ingeniería Mecánica y Eléctrica La paciencia es amarga, pero sus.
Redes Neuronales Artificiales Tarea 5 BackPropagation I Redes Neuronales Artificiales Tarea 5 BackPropagation I Dr. Juan José Flores Romero División de.
INSTITUTO DE ESTUDIOS SUPERIORES DE CHIHUAHUA COMPUTACION Ciclo: segundo cuatrimestre Lic. Roberto Servando Roque Corona.
Ejemplo 1 de División con resta a la vista
Contenido Identificación de sistemas con redes neuronales Modelado de dinámica temporal de las manchas solares.
Redes Neuronales Artificiales
Aprendizaje de Agentes II Alberto Reyes Ballesteros Programa ITESM-IIE Doctorado en Ciencias Computacionales.
Perceptrón Multicapa Aplicaciones. Perceptrón Multicapa MLP Latitud Longitud... Altitud Radiación solar Aproximación de funciones MLP Estado de un reactor.
Scis.regis.edu ● CS-361: Estructuras de Control Semana Cinco Dr. Jesús Borrego Lead Faculty, COS Regis University 1.
Modelos Computacionales
Redes Competitivas.
Neurona  elemento de proceso Variantes y combinaciones: gran flexibilidad: ¿demasiada? Aprendizaje flexible:  Redes neuronales Respuesta de elemento.
REDES NEURONALES.
Microsoft Office Project 2010 Curso Básico
CAPACITACIÓN - 03 INSTRUCCIONES PARA ENVIAR LA TAREA AL TUTOR.
Aprendizaje Automatizado
Redes Neuronales Artificiales 2 - Aprendizaje
CARPLATE Reconocimiento del marco de la matrícula de un coche
Modelado e Identificación de Sistemas Complejos (Un enfoque de IA) Dr. Juan José Flores Romero División de Estudios de Posgrado Facultad de Ingeniería.
Redes Neuronales Artificiales 3 - Perceptrones Dr. Juan José Flores Romero División de Estudios de Posgrado Facultad de Ingeniería Eléctrica
Introduccion a las Redes de Funciones de Base Radial
8.- Inteligencia artificial
Aprendizaje No Supervisado y Redes de Kohonen
SABER v. CONOCER to know CONOCER conozco conoces conoce conocemos conocéis conocen.
Redes Neuronales BPN - Backpropagation Networks
Redes Neuronales Artificiales Entrenamiento por Retropropagación del Error-Backpropagation Dr. Pedro Ponce Cruz EGIA-MCI.
Redes neuronales feed-forward
Sistemas Expertos Integrantes Javier Farfán Katherine Jara Héctor Gatica.
PC BD Alexandra Buri H José Rivera De La Cruz.
Identificacion con redes neuronales
Redes Neuronales Artificiales Tarea 1 Simulación de OR con una Sola Neurona Redes Neuronales Artificiales Tarea 1 Simulación de OR con una Sola Neurona.
Ing. Vanessa Borjas. Entorno gráfico En un entorno gráfico se tiende a que cada uno de los programas esté compuesto por un formulario, aunque no es una.
EduCat Prototipos. Introducción En las próximas páginas se muestra un bosquejo de lo que será la interfaz gráfica de nuestro programa, EduCat, para los.
Manejá tus tiempos Facultad de Ingeniería de la Universidad de Buenos Aires – Marzo 2012.
Ángel Berihuete Francisco Álvarez
SABER v. CONOCER to know CONOCER conozco conoces conoce conocemos conocéis conocen.
Programación Básica Bachillerato Ingeniería en Informática Lic. Carlos H. Gutiérrez León.
Redes Neuronales Artificiales (ANN)
Comparación de Modelos Neuronales Utilizadas en la Toma de Decisiones
Algunas consideraciones con Redes Neuronales
Aplicación de red neuronal “Back Propagation”:
Redes Neuronales Artificiales
Próximos pasos  Explique el resto de las acciones necesarias.
Transcripción de la presentación:

Redes Neuronales Artificiales Tarea 6 BackPropagation II Redes Neuronales Artificiales Tarea 6 BackPropagation II Dr. Juan José Flores Romero División de Estudios de Posgrado Facultad de Ingeniería Eléctrica

Parte I Reconocimiento de Caracteres 1. Su archivo de entrenamiento es digit_train.pat. Cada patrón tiene 64 entradas y 10 salidas. Las entradas son pixeled que representan dígitos decimales escritos a mano. Cada dígito representado poruna matriz de 8x8. Las salidas, 0 to 9, indican como la imagen es clasificada. Si la imagen representa al 3, la unidad 3 debe tener una salida de 1 y el resto de 0. Se tienen 3823 patrones en el conjunto de entrenamiento. 2. El alumno debe decidir cuantas unidades usar y por cuanto tiempo entrenar la red. You must decide how many hidden units to use, how long to train the network, etc. Tengan cuidado de no sobreentrenarla (overfitting). 3. Puden dividir el archivo en conjuntos de entrenamiento y de validación. 4. Entregar su archivo de red y un reporte que explique la estructura de la red, como la seleccionaron, cualquier fenómeno o situación interesanteque hayan encontrado, etc.

Parte II Entrenamiento 1. Cargue el archivo xor.pat. 2. Inicialice la red. 3. Abra las ventanas de proyección y error. 4. Entrene la red por 5000 ciclos. 5. Repita la inicialización y aprendizaje 3 veces. Para cada vez, capture pantallas de las proyecciones finales de las entradas a la salida, de las entradas a la neurona ocula y de las entradas a la segunda neurona oculta. 6. ¿Qué función booleana implementa cada neurona oculta? ¿Qué función booleana de las neuronas ocultas implementa la neurona de salida? 7. ¿Cual es el resultado para entradas de 0.5, 0.5?