7. Máquinas Estocásticas

Slides:



Advertisements
Presentaciones similares
PARTE III. Modelos y Sistemas de Costes
Advertisements

Inteligenica Artificial I Alejandro Permingeat Inteligencia Artificial de Russell y Norving 1° edición 1996 Parte II Capítulo V.
Silvana Arias Carla Espinosa Livia Loaiza INGENIERIA EN SISTEMAS
3 Redes Recurrentes y Autónomas
Convertidores A/D y D/A
6. Sistemas Autoorganizados
Instituto Tecnológico
TEORÍA GENERAL DE SISTEMAS
Definición Machine learning traducido al español significa el aprendizaje automático o también aprendizaje de las maquinas. A partir de esto podemos darle.
Generación de Números y Variable aleatorias
Capítulo 5 Método de MonteCarlo
Computación Raúl Espejel-Morales Laboratorio Interdisciplinario (326)
Diseño de Experimentos
Programas Son una serie o secuencia de instrucciones entendibles por los ordenadores que permiten la realización de las acciones o tareas para las que.
Capitulo 10: La metodología Box-Jenkins
Administración II Teoría de Sistemas Lic. Ramón Paz Castedo.
Estimación por Intervalos de confianza
APRENDIZAJE WIDROW- HOFF
El Perceptrón  El psicólogo Frank Ronsenblant desarrolló un modelo simple de neurona basado en el modelo de McCulloch y Pitts que utilizaba.
Benemérita Universidad Autónoma de Puebla Facultad de Ciencias de la Computación Métodos Numéricos Método de la regla falsa Balderas Nieves Dulce Ivett.
Tema 2: Métodos de ajuste
REDES BAYESIANAS Y DECISIÓN ESTADÍSTICA
PROPIEDADES DE LAS REDES DE PETRI
Tests de hipótesis Los tres pasos básicos para testear hipótesis son
Evaluación de los proyectos Método general. Evaluación de proyectos de inversión Todos los proyectos de inversión tienen características estructurales.
Cálculo de ceros de funciones de Rn–> Rn :
Introducción Calculabilidad clásica Computación celular
Redes Neuronales Monocapa
El Perceptrón Multicapa
1 Problema no separable linealmente Se busca obtener un algoritmo más general que permita integrar el aprendizaje entre las dos capas.
Importancia de las aplicaciones de estadística en el control de procesos Guatemala 2010.
Procesamiento digital Parte 3 - Filtros
Sesión 6: Campos de Markov
Bioinformática: Fundamentos y aplicaciones de actualidad Curso de verano 2005 Revisión de algunos modelos probabilísticos de evolución genética (Procesos.
LENGUAJE DE PROGRAMACIÓN
Teoría de colas Teoría de colas Alternativa a estudios de simulación
Redes Asociativas.
Generación de Variables Aleatorias
Modelos Computacionales
Redes Competitivas.
Un número aleatorio es aquel obtenido al azar, es decir, que todo número tenga la misma probabilidad de ser elegido y que la elección de uno no dependa.
1 MÉTODOS DE SIMULACIÓN Permitien el estudio de propiedades de sistemas complejos. Generación de conjunto de configuraciones distintas para un mismo sistema.
REDES NEURONALES.
Simular: Representar una cosa, fingiendo o imitando lo que no es.
Redes Neuronales Artificiales 2 - Aprendizaje
Clase # 7: Análisis Conformacional (I)
Líneas de Espera: Teoría de Colas
Simulación/2002 Héctor Allende
DISTRITACIÓN ELECTORAL y OPTIMIZACIÓN COMBINATORIA David Romero Instituto de Matemáticas - UNAM Cuernavaca, Morelos COLOQUIO INTERNACIONAL DE DISTRITACIÓN.
Villahermosa, Tab. 21 septiembre MATERIA: Investigacion de operaciones TEMA: Lineas de espera ALUMNOS: Maria isabel vega chanona HORA: 11:00 am a.
Redes Neuronales BPN - Backpropagation Networks
Redes Neuronales Artificiales Entrenamiento por Retropropagación del Error-Backpropagation Dr. Pedro Ponce Cruz EGIA-MCI.
Redes neuronales feed-forward
Metodología de la programación
Sesión 6: Campos de Markov. © L.E. Sucar: PGM - CAM2 Campos de Markov Introducción –Modelo de Ising Representación –Tipos de Modelos –Redes de Markov.
Algoritmo de Retropropagación. Conclusiones de Retropropagación n 1. Si la neurona j es un nodo de salida es igual al producto de la derivada y la señal.
Cadenas De Markov.
Modelos ocultos de Markov (HMM)
IDENTIFICACIÓN DEL CICLO DE VIDA DEL SOFTWARE. POLITÉCNICO COLOMBIANO JAIME ISAZA CADAVID.
REDES NEURONALES TEORÍA MODERNA DE LA FIRMA 2010.
2.1 DEFINICIONES CARACTERÍSTICAS Y SUPOSICIONES.
Especialidad en Administración de Proyectos
Distribuciones de Probabilidad
TEMA 3: Estadística Bidimensional.
Redes (r, n) Suponga este sistema de 7 componentes redundante, puesto que (por hipótesis) el sistema funciona con al menos tres componentes Tiempo de falla.
INFERENCIA ESTADÍSTICA
Pruebas paramétricas y no paramétricas
Tema 4: Variables aleatorias discretas La distribución binomial
REDES NEURONALES ARTIFICIALES (SOM - Kohonen)
UNIVERSIDAD REMINGTON TEORIA GENERAL DE SISTEMAS 11 DE MAYO DE 2009.
Transcripción de la presentación:

7. Máquinas Estocásticas 7.1 El Algoritmo de Metrópolis

7. Máquinas Estocásticas 7.3. La técnica de Recocido Simulado Un esquema de enfriamiento que regula cómo va disminuyendo gradualmente la temperatura. Un algoritmo, como el algoritmo de Metropolis, que se utiliza para encontrar la distribución de equilibrio para cada nuevo valor de la temperatura obtenido por el esquema de enfriamiento.

7. Máquinas Estocásticas 7.3. La técnica de Recocido Simulado Paso 0 Elegir una configuración inicial de la red (k=0) y un esquema de enfriamiento T(k). Paso 1 Hacer k  k + 1 Paso 2 Elegir aleatoriamente una unidad de proceso; supongamos que su estado es si(k) correspondiente a la configuración de la red . Si la configuración verifica que E(k+1) < E(k) entonces se toma como nueva configuración, Si no, entonces si exp(-E(k)/T(k))>rand[0,1) elegir también si (k+1) = si (k) para la nueva configuración, si no, la nueva configuración es la misma que la anterior, si (k+1) = si (k). Paso 3 Si k = kmax (u otro criterio de parada se cumple que garantice que todas las unidades de proceso han sido actualizadas varias veces) parar, la configuración obtenida es la buscada. Si no, volver al paso 1.

7.4 Máquina de Boltzmann Neuronas ocultas Neuronas de salida Neuronas de entrada Cuando T es “grande” entonces Cuando T es “pequeño” entonces que se comporta como el Modelo de Hopfield determinístico.

7.4 Máquina de Boltzmann El proceso de aprendizaje se lleva a cabo en dos etapas: una etapa de bloqueo o ajuste donde se ajustan las unidades visibles a los patrones de entrenamiento mientras que las unidades ocultas evolucionan según la dinámica de la red; en la otra etapa libre sólo se ajustan las neuronas de entrada y las demás evolucionan libremente. : configuración concreta de los estados de las neuronas visibles : representan una configuración concreta de los estados de las neuronas ocultas. P() : probabilidad de que las neuronas visibles presenten la configuración  cuando la red opera de forma bloqueada (ajustada a las condiciones del entorno), es decir, la probabilidad deseada. Q() : probabilidad de que las neuronas visibles presenten la configuración  cuando la red opera de forma libre (depende de los pesos sinápticos de la red).

7.4 Máquina de Boltzmann

7.4 Máquina de Boltzmann Paso 1: Inicio Los pesos sinápticos de la red con valores aleatorios entre –1 y 1 Paso 2: Fase de bloqueo Ajustar las unidades visibles a los patrones de entrenamiento. Si hay varias salidas posibles para una misma entrada entonces cada salida se debe ajustar con la frecuencia apropiada. Realizar un enfriamiento estadístico, T(k)=0.95·T(k-1). Actualizar la red, para cada valor de la temperatura, eligiendo aleatoriamente una neurona oculta, y asignarle el valor +1 con probabilidad Alcanzada la temperatura final, calcular la media de los valores del producto sisj, en cada actualización (correlación), para par de neuronas i, j. Paso 3: Fase libre Repetir las computaciones del paso 2 pero ajustando sólo las neuronas de entrada y estimar también las correlaciones. Paso 4: Actualización de los pesos sinápticos Actualizar los pesos sinápticos según la regla de aprendizaje de Boltzmann: donde  es la tasa de aprendizaje. Paso 5: Repetir los pasos anteriores hasta que el procedimiento de aprendizaje converja (es decir, cuando no se produzcan cambios en el valor de los pesos sinápticos)