PLN hmm1 Modelos ocultos de Markov (HMM) Introducción Cálculo de la probabilidad de una observación Algoritmo Forward Algoritmo Backward Algoritmo de Viterbi.

Slides:



Advertisements
Presentaciones similares
MODELOS DE MARKOV OCULTOS
Advertisements

Profile HMMs Perfiles de Modelos ocultos de Markov
Bioinformática: Fundamentos y aplicaciones de actualidad Curso de verano 2005 Revisión de algunos modelos probabilísticos de evolución genética (Procesos.
Sesión 5: Modelos Ocultos de Markov
Sesión 5: Modelos Ocultos de Markov
Ditribución del valor extremo Distribucion del maximo de N scores de matching de secuencias random independientes Si la probabilidad de este.
Modelos ocultos de Markov (HMM)
Ex ungue leonis Atribuido a Johann Bernoulli al leer dos soluciones anónimas, y reconociendo en ellas la redacción y genialidad de Isaac Newton Cadenas.
Hidden Markov Models Angélica Minaya Francesca Barletta Jeanette Velásquez Mónica Pajuelo Daniel Rueda.
Modelos ocultos de Markov (HMM)
Hidden Markov Models Angélica Minaya Francesca Barleta Jeanette velásquez Mónica Pajuelo Daniel Rueda.
Introducción al cálculo lambda Programación lógica funcional.
LEONARDO LÓPEZ C. ECONOMIA ESTADISTICA COMPUTARIZADA PARALELO: 261.
Distribuciones estadísticas 1.- Variable aleatoria discreta. 2.- Función de probabilidad de variable discreta. Propiedades 3.- Parámetros en distribuciones.
Traducción dirigida por la Sintaxis Teoría de Autómatas y Lenguajes Formales Alma María Pisabarro, 2007.
TUTORIA 1 Lógica para la Computación TUTORIA 1 Facultad de Ciencias Naturales y Matemáticas.
1 Problemas de decisión Tipo particular de problemas de optimización Sistemas que evolucionan con el tiempo Se toman decisiones en momentos sucesivos de.
Ing. VITELIO ASENCIOS TARAZONA. Dentro de los modelos causales o asociativos encontramos el análisis de regresión o regresión lineal, que es un método.
Matriz Origen - Destino de viajes
Descripción y tratamientos de datos multivariantes
Capítulo 5 Método de MonteCarlo
VENTAJAS DEL ALGORITMO LMS
Intervalos de Confianza
METODOS PARA ANALISIS DE TALUDES
Introducción La optimización trata de buscar el punto óptimo de una función objetivo cumpliendo con una serie de restricciones. El proceso de optimización.
LICENCIATURA EN SISTEMAS DE COMPUTACIÓN ADMINISTRATIA TEORÍA DE MODELOS
TALLER REGIONAL SOBRE EL DISEÑO ESTADÍSTICO DE ENCUESTAS DE HOGARES PARA EL ESTUDIO DEL MERCADO LABORAL “Jackknife” Jaime Mojica Cuevas Agosto Panamá.
INVESTIGACIÓN DE OPERACIONES
“Bootstrap” Jaime Mojica Cuevas
5. Análisis y diseño de sistemas secuenciales (I)
Introducción a los modelos econométricos
CHI CUADRADO  2 OBJETIVOS –Describir situaciones donde es adecuado la utilización de la prueba de Chi Cuadrado (  2 ) –Formular Hipótesis para diferentes.
¿Cuándo usar esta distribución?
Matriz Origen - Destino de viajes
Método Alias (Walter 1977) Permite generar de manera eficiente v.a.d. Con soporte finito. Supongamos que se desea generar la v.a.d. X con función de cuantía.
INSTITUTO TECNOLOGICO DE MINATITLAN ISC IV SEMESTRE
CONTINUACIÓN CAPÍTULO 7
PROGRAMACION DINAMICA
PREDICCIÓN Y ESTIMACIÓN
REGRESÍON LINEAL SIMPLE
Diagrama de flujo y Algoritmo
REGRESIÓN LINEAL SIMPLE
Matriz Origen - Destino de viajes
una solución. Los algoritmos son objeto de estudio de la algoritmia.
Estimación de volatilidades
AUTOMATAS FINITOS DETERMINISTICOS
UNIDAD 3. Autómatas Finitos 3.3 Conversión de un AFND a AFD Presentan: Anahi Avila Valdez Erika F. Palma Tzidejhe Docente: Adrián Chávez 1.
Principios de Estadística
Kriging Consideremos información de determinada propiedad en el yacimiento y puntos en los cuales se tiene la estimación dea partir de los puntos.
ALVAREZ OCHOA DEISY NAYELI
Métodos estadísticos en Bioinformática
Tarea de Modelos Ocultos de Markov
ICPM050 – ECONOMETRÍA tema 03: ESTIMACIÓN MODELO LINEAL SIMPLE
UD 5: DISTRIBUCIÓN BINOMIAL Y NORMAL
Diagrama de Clases Un diagrama de clases esta compuesto por los siguientes elementos: Clase: atributos, métodos y visibilidad. Relaciones: Herencia, Composición,
Simulación Matemática DAVID PINZÓN ULLOA. Métodos de Generación de Números Aleatorios.
Informática Aplicada al Medio Ambiente - Curso 99/00 1 Tema 6. Introducción a la programación 1 Conceptos básicos 2 Los algoritmos – Concepto de algoritmo.
OPTIMIZACIÓN EN REDES EN ALGUNOS PROBLEMAS DE OPTIMIZACIÓN PUEDE SER ÚTIL REPRESENTAR EL PROBLEMA A TRAVÉS DE UNA GRÁFICA: ruteo de vehículos, distribución.
Sesión 5: Modelos Ocultos de Markov
CONCEPTO DE ESTIMADOR ES UNA REGLA O MÉTODO QUE DICE COMO CALCULAR LA ESTIMACIÓN DE UN PARÁMETRO BASÁNDOSE EN LA INFORMACIÓN DE UNA MUESTRA, GENERALMENTE.
Informática Aplicada al Medio Ambiente - Curso 99/00 1 Tema 6. Introducción a la programación 1 Conceptos básicos 2 Los algoritmos – Concepto de algoritmo.
AUTÓMATAS ROHERMY OCHOA V AUTÓMATA FINITO Es un modelo computacional que realiza cómputos en forma automática sobre una entrada para producir.
Modelos Ocultos de Markov Parte II
Informática Aplicada al Medio Ambiente - Curso 99/00 1 Tema 6. Introducción a la programación 1 Conceptos básicos 2 Los algoritmos – Concepto de algoritmo.
UNIVERSIDAD NACIONAL DEL CENTRO DEL PERU FACULTAD DE INGENIERIA DE MINAS HUANCAYO I MODELO DE REDES Ing. Eli Teobaldo Caro Meza CURSO: INVESTIGACION.
INTRODUCCIÓN A UML.  QUE ES UML?  PARA QUE SE UTILIZA  COMPONENTES  DIAGRAMAS.
QUE ES UN PROYECTO? Un proyecto se refiere a un conjunto articulado y coherente de actividades orientadas a alcanzar uno o varios objetivos siguiendo.
ESTUDIO DE MERCADO. MÉTODOS DE PROYECCIÓN ¿Qué es una proyección? Es una estimación del comportamiento de una variable en el futuro. Específicamente, se.
SIMULACIONES 2019 German Vega Quintero John Farley Paez Santamaria.
Transcripción de la presentación:

PLN hmm1 Modelos ocultos de Markov (HMM) Introducción Cálculo de la probabilidad de una observación Algoritmo Forward Algoritmo Backward Algoritmo de Viterbi Estimación de los parámetros del modelo: Algoritmo Baum-Welch (Forward-Backward) nota: buena parte del material tomado de David Meir Blei (UCB)

PLN hmm2 HMM 1 Se trata de un modelo doblemente estocástico en el que el modelo del lenguaje corresponde a una máquina de estados finitos y el modelo de la comunicación es enteramente local (cada símbolo emitido depende sólo del estado en que se emite o de la transición que se efectúa). Un HMM puede implementarse mediante un FSA probabilístico de forma que las transiciones llevan asociada una probabilidad y la salida (asociada a los nodos) también.

PLN hmm3 HMM 2 En un HMM el pasado es independiente del futuro dado el presente. Los modelos simples de n-gram son casos particulares expresables en términos de HMM. Los parámetros del modelo (que debemos estimar) corresponden a las probabilidades de transición y de emisión.

PLN hmm4 HMM 3 3 distribuciones de probabilidad: probabilidad inicial:  i probabilidad de estar inicialmente en el estado i probabilidad de transición: a ij probabilidad de, estando en el estado i, ir al estado j probabilidad de emisión: b i (k) probabilidad de, estando en el estado i, emitir el símbolo k.

PLN hmm5 Ejemplo de modelo oculto de Markov

PLN hmm6 Modelo Gráfico (en el sentido probabilístico) Los círculos denotan estados (correspondientes a variables aleatorias) Las flechas indican dependencias estadísticas entre estados HMM 4

PLN hmm7 Los círculos superiores denotan estados ocultos que sólo dependen de sus predecesores HMM 5

PLN hmm8 HMM 6 Los círculos inferiores denotan estados visibles (observados) Los estados observados sólo dependen de su correspondiente estado oculto.

PLN hmm9 HMM 7 {S, K,  S : {s 1 …s N } valores de los estados ocultos K : {k 1 …k M } valores de las observaciones SSS KKK S K S K

PLN hmm10 {S, K,     probabilidades iniciales A = {a ij } probabilidades de transición B = {b ik } probabilidades de emisión A B AAA BB SSS KKK S K S K HMM 8

PLN hmm11 Algoritmos para tratar HMM Cálculo de la probabilidad de una observación (dado el modelo) con coste lineal. Cálculo incremental de la probabilidad Fw Encontrar el camino mejor (el más probable) para una observación dada con coste lineal. Entrenamiento (estimación de los parámetros) del modelo a partir de un corpus => maximizar la probabilidad global del corpus. Algoritmo Forward/Backward Cuando hablamos de observación nos referimos a una secuencia de observaciones

PLN hmm12 oToT o1o1 otot o t-1 o t+1 Dada una observación y un modelo, calcular la probabilidad de la observación Decodificación 1

PLN hmm13 Decodificación 2 oToT o1o1 otot o t-1 o t+1 x1x1 x t+1 xTxT xtxt x t-1

PLN hmm14 Decodificación 3 oToT o1o1 otot o t-1 o t+1 x1x1 x t+1 xTxT xtxt x t-1

PLN hmm15 Decodificación 4 oToT o1o1 otot o t-1 o t+1 x1x1 x t+1 xTxT xtxt x t-1

PLN hmm16 Decodificación 5 oToT o1o1 otot o t-1 o t+1 x1x1 x t+1 xTxT xtxt x t-1

PLN hmm17 Decodificación 6 oToT o1o1 otot o t-1 o t+1 x1x1 x t+1 xTxT xtxt x t-1

PLN hmm18 oToT o1o1 otot o t-1 o t+1 x1x1 x t+1 xTxT xtxt x t-1 Implementación eficiente usando programación dinámica Idea: Mantener para cada estado i y tiempo t la probabilidad de haber alcanzado el estado habiendo emitido la secuencia de observaciones hasta t Probabilidad forward: Algoritmo Forward 1

PLN hmm19 oToT o1o1 otot o t-1 o t+1 x1x1 x t+1 xTxT xtxt x t-1 Algoritmo Forward 2

PLN hmm20 oToT o1o1 otot o t-1 o t+1 x1x1 x t+1 xTxT xtxt x t-1 Algoritmo Forward 3

PLN hmm21 oToT o1o1 otot o t-1 o t+1 x1x1 x t+1 xTxT xtxt x t-1 Algoritmo Forward 4

PLN hmm22 oToT o1o1 otot o t-1 o t+1 x1x1 x t+1 xTxT xtxt x t-1 Probabilidad de completar la emisión desde un estado Algoritmo Backward 1

PLN hmm23 oToT o1o1 otot o t-1 o t+1 x1x1 x t+1 xTxT xtxt x t-1 Forward Procedure Backward Procedure Combination Decodificación 7

PLN hmm24 oToT o1o1 otot o t-1 o t+1 Encontrar la secuencia de estados que explique mejor las observaciones Algoritmo de Viterbi Viterbi 1

PLN hmm25 oToT o1o1 otot o t-1 o t+1 Secuencia de estados que maximiza la probabilidad de ver las observaciones hasta el instante t-1, estando en el estado j y emitiendo la observación del instante t x1x1 x t-1 j Viterbi 2

PLN hmm26 oToT o1o1 otot o t-1 o t+1 Cálculo Recursivo x1x1 x t-1 xtxt x t+1 Viterbi 3

PLN hmm27 oToT o1o1 otot o t-1 o t+1 Cálculo de la secuencia más verosimil de forma backward x1x1 x t-1 xtxt x t+1 xTxT Viterbi 4

PLN hmm28 oToT o1o1 otot o t-1 o t+1 Dada una secuencia de observaciones encontrar el modelo (  = { ,A,B}) que maximice la probabilidad de emitir la observación No existe método analítico para hacerlo A B AAA BBBB Estimación de los parámetros 1

PLN hmm29 Baum-Welch (Forward-Backward) Caso particular de la familia de algoritmos de Expectation Maximization (EM) Método iterativo de tipo hill-climbing Estimación de los parámetros 2

PLN hmm30 Algoritmo EM Se ignoran (algunos de) los parámetros del modelo No se conoce la Estructura oculta Se dispone de una serie de observaciones Dos etapas Expectation Maximization Estimación de los parámetros 3

PLN hmm31 Estimación de los parámetros 4 Parámetros del modelo (probabilidades) Estructura oculta Observaciones E step: a partir de los parámetros actuales se recupera la estructura oculta M step: a partir de las observaciones y de la estructura oculta se recalculan los parámetros

PLN hmm32 Estimación de los parámetros 5 Baum-Welch (Forward-Backward) Comenzar con un modelo  = { ,A,B} inicial Cálculo de valores esperados del uso de las transiciones/emisiones Reestimar las probabilidades (el modelo) de acuerdo al modelo Repetir hasta lograr la convergencia

PLN hmm33 oToT o1o1 otot o t-1 o t+1 A B AAA BBBB Probabilidad de atravesar un arco (i,j) Probabilidad de estar en el estado i Estimación de los parámetros 6

PLN hmm34 oToT o1o1 otot o t-1 o t+1 A B AAA BBBB Estimación de los parámetros 7 Reestimación de los parámetros del modelo

PLN hmm35 Aplicaciones POS tagging Generación de los parámetros de un LM NER NEC chunking ASR