Modelos ocultos de Markov (HMM)

Slides:



Advertisements
Presentaciones similares
DISEÑO DE EXPERIMENTOS EXPERIMENTOS DE COMPARACIÓN SIMPLE
Advertisements

REGRESION LINEAL SIMPLE
Modelos de Variable Dependiente Binaria -Logit y Probit-
PRESENTACION I INTRODUCCION A LA HIDROLOGIA PROBABILISTICA
7. Máquinas Estocásticas
La maquina de Turing La máquina de Turing es una caja negra (tan simple como una máquina de escribir y tan compleja como un ser humano) capaz no sólo de.
OPTIMIZACIÓN EN REDES EN ALGUNOS PROBLEMAS DE OPTIMIZACIÓN PUEDE SER ÚTIL REPRESENTAR EL PROBLEMA A TRAVÉS DE UNA GRÁFICA: ruteo de vehículos, distribución.
PROYECTO FIN DE CARRERA.  Introducción y Motivación  Fundamentos del Sistema QbH  Diseño e Implementación  Test y Resultados  Conclusiones  Trabajo.
¿Qué es un modelo conceptual?
Ingeniería en Ciencias Económicas y Financieras
Ingeniería Matemática
Ingeniería en Ciencias Económicas y Financieras
Tema 1: Programación dinámica
Son problemas secuenciales: El problema se puede dividir en etapas. Definición: Método que permite determinar de manera eficiente las decisiones que optimizan.
Capítulo 5 Método de MonteCarlo
MODELO DE REGRESIÓN MÚLTIPLE
UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉXICO FACULTAD DE INGENIERIA DIVISIÓN DE INGENIERÍA ELÉCTRICA COMPUTACIÓN PARA INGENIEROS NOTA IMPORTANTE: Para complementar.
MODELOS DE MARKOV OCULTOS
Investigación Operativa
Sesión 12: Procesos de Decisión de Markov
Tema 2: Métodos de ajuste
REDES BAYESIANAS Y DECISIÓN ESTADÍSTICA
Análisis de supervivencia Tema 5 Itziar Aretxaga.
Cadenas de Markov de Tiempo Discreto
Profile HMMs Perfiles de Modelos ocultos de Markov
Procesos Estocásticos
Modelos Ocultos de Markov
Sesión 6: Campos de Markov
Sesión 12: Procesos de Decisión de Markov. Incertidumbre - MDP, L.E. Sucar2 Procesos de Decisión de Markov Procesos de Decisión Secuenciales Procesos.
Distancia entre dos secuencias: Jukes - Cantor
Bioinformática: Fundamentos y aplicaciones de actualidad Curso de verano 2005 Revisión de algunos modelos probabilísticos de evolución genética (Procesos.
Sesión 5: Modelos Ocultos de Markov
Sesión 5: Modelos Ocultos de Markov
Combinación de Clasificadores
Método de recuperación de Theis
M. Angélica Maulén-Yañez (1) y Eduardo González-Olivares (2)
Método Alias (Walter 1977) Permite generar de manera eficiente v.a.d. Con soporte finito. Supongamos que se desea generar la v.a.d. X con función de cuantía.
J. Troyano, Víctor Díaz, F. Enríquez y J. Barroso Departamento de Lenguajes y Sistemas Informáticos E.T.S. Ingeniería Informática Universidad de Sevilla.
An HMM-Based Threshold Model Approach for Gesture Recognition Hyeon-Kyu Lee and Jin H. Kim IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE,
Unidad V: Estimación de
Departament d’Estadística Divisió de Ciències Experimentals i Matemàtiques Montecarlo basado en cadenas de Markov Programa de doctorado Estadística, Análisis.
Capítulo 7 Estimación de Parámetros Estadística Computacional
Simular: Representar una cosa, fingiendo o imitando lo que no es.
Raúl Monroy (de las notas de Jane Hilston)
¿Cuándo usar esta distribución?
Ditribución del valor extremo Distribucion del maximo de N scores de matching de secuencias random independientes Si la probabilidad de este.
Programación y control del proyecto
3- PROGRAMACION LINEAL PARAMETRICA
Integración de Redes Bayesianas con Programas Lógicos para Música Eduardo Morales L.Enrique Sucar Roberto Morales.
Una introducción a la computación evolutiva
Modelos ocultos de Markov (HMM)
Ex ungue leonis Atribuido a Johann Bernoulli al leer dos soluciones anónimas, y reconociendo en ellas la redacción y genialidad de Isaac Newton Cadenas.
Inferencia Multivariante Cap 10 y 11
Capítulo 1. Conceptos básicos de la Estadística
Sesión 12: Procesos de Decisión de Markov
Hidden Markov Models Angélica Minaya Francesca Barletta Jeanette Velásquez Mónica Pajuelo Daniel Rueda.
ALINEAMIENTO MULTIPLE: METODOS ALTERNATIVOS
PLN Modelos del lenguaje1 Modelos Estadísticos del lenguaje Modelos del lenguaje (Language Models, LM) Noisy Channel model Modelos simples de Markov Smoothing.
Sesión 6: Campos de Markov. © L.E. Sucar: PGM - CAM2 Campos de Markov Introducción –Modelo de Ising Representación –Tipos de Modelos –Redes de Markov.
Estructura de Datos 4 Grafos Dirigidos
Investigación de Operaciones 2
MÉTODOS DE ANÁLISIS EN LA TOMA DE DECISIONES EXISTEN PROCEDIMIENTOS DE ORDEN MATEMÁTICO, FINANCIERO, ECONÓMICO, ESTADÍSTICO ENTRE OTROS, PARA LA TOMA DE.
Cadenas De Markov.
Hidden Markov Models Angélica Minaya Francesca Barleta Jeanette velásquez Mónica Pajuelo Daniel Rueda.
Sesión 6: Redes Bayesianas - Inferencia
Compiladores Análisis de Flujo de Datos. 2 Resumen Overview de análisis de control de flujo Expresiones disponibles Algoritmo para calcular expresiones.
RIESGO, RENDIMIENTO Y VALOR
REGRESIÓN LINEAL SIMPLE
Alineamiento de secuencia de proteinas con HMM Sandra Cano.
PLN hmm1 Modelos ocultos de Markov (HMM) Introducción Cálculo de la probabilidad de una observación Algoritmo Forward Algoritmo Backward Algoritmo de Viterbi.
Transcripción de la presentación:

Modelos ocultos de Markov (HMM) Introducción Cálculo de la probabilidad de una observación Algoritmo Forward Algoritmo Backward Algoritmo de Viterbi Estimación de los parámetros del modelo: Algoritmo Baum-Welch (Forward-Backward) Introduction: marc general i la motivació d’aquest treball nota: buena parte del material tomado de David Meir Blei (UCB)

HMM 1 Se trata de un modelo doblemente estocástico en el que el modelo del lenguaje corresponde a una máquina de estados finitos y el modelo de la comunicación es enteramente local (cada símbolo emitido depende sólo del estado en que se emite o de la transición que se efectúa). Un HMM puede implementarse mediante un FSA probabilístico de forma que las transiciones llevan asociada una probabilidad y la salida (asociada a los nodos) también.

HMM 2 En un HMM el pasado es independiente del futuro dado el presente. Los modelos simples de n-gram son casos particulares expresables en términos de HMM. Los parámetros del modelo (que debemos estimar) corresponden a las probabilidades de transición y de emisión.

HMM 3 3 distribuciones de probabilidad: probabilidad inicial: i probabilidad de estar inicialmente en el estado i probabilidad de transición: aij probabilidad de, estando en el estado i, ir al estado j probabilidad de emisión: bi(k) probabilidad de, estando en el estado i, emitir el símbolo k.

Ejemplo de modelo oculto de Markov

HMM 4 Modelo Gráfico (en el sentido probabilístico) Los círculos denotan estados (correspondientes a variables aleatorias) Las flechas indican dependencias estadísticas entre estados

HMM 5 Los círculos superiores denotan estados ocultos que sólo dependen de sus predecesores

HMM 6 Los círculos inferiores denotan estados visibles (observados) Los estados observados sólo dependen de su correspondiente estado oculto.

HMM 7 {S, K, P, A, B} S : {s1…sN } valores de los estados ocultos K : {k1…kM } valores de las observaciones

HMM 8 {S, K, P, A, B} P = {pi} probabilidades iniciales A = {aij} probabilidades de transición B = {bik} probabilidades de emisión

Algoritmos para tratar HMM Cálculo de la probabilidad de una observación (dado el modelo) con coste lineal. Cálculo incremental de la probabilidad Fw Encontrar el camino mejor (el más probable) para una observación dada con coste lineal. Entrenamiento (estimación de los parámetros) del modelo a partir de un corpus => maximizar la probabilidad global del corpus. Algoritmo Forward/Backward Cuando hablamos de observación nos referimos a una secuencia de observaciones

Decodificación 1 oT o1 ot-1 ot ot+1 Dada una observación y un modelo, calcular la probabilidad de la observación

Decodificación 2 oT o1 ot ot-1 ot+1 x1 xt+1 xT xt xt-1

Decodificación 3 oT o1 ot ot-1 ot+1 x1 xt+1 xT xt xt-1

Decodificación 4 oT o1 ot ot-1 ot+1 x1 xt+1 xT xt xt-1

Decodificación 5 oT o1 ot ot-1 ot+1 x1 xt+1 xT xt xt-1

Decodificación 6 oT o1 ot ot-1 ot+1 x1 xt+1 xT xt xt-1

Algoritmo Forward 1 oT o1 ot ot-1 ot+1 x1 xt+1 xT xt xt-1 Implementación eficiente usando programación dinámica Idea: Mantener para cada estado i y tiempo t la probabilidad de haber alcanzado el estado habiendo emitido la secuencia de observaciones hasta t Probabilidad forward:

Algoritmo Forward 2 oT o1 ot ot-1 ot+1 x1 xt+1 xT xt xt-1

Algoritmo Forward 3 oT o1 ot ot-1 ot+1 x1 xt+1 xT xt xt-1

Algoritmo Forward 4 oT o1 ot ot-1 ot+1 x1 xt+1 xT xt xt-1

Algoritmo Backward 1 x1 xt-1 xt xt+1 xT o1 ot-1 ot ot+1 oT Probabilidad de completar la emisión desde un estado

Decodificación 7 Forward Procedure Backward Procedure Combination x1 xt-1 xt xt+1 xT o1 ot-1 ot ot+1 oT Forward Procedure Backward Procedure Combination

Viterbi 1 oT o1 ot ot-1 ot+1 Encontrar la secuencia de estados que explique mejor las observaciones Algoritmo de Viterbi

Viterbi 2 x1 xt-1 j o1 ot-1 ot ot+1 oT Secuencia de estados que maximiza la probabilidad de ver las observaciones hasta el instante t-1, estando en el estado j y emitiendo la observación del instante t

Viterbi 3 oT o1 ot ot-1 ot+1 x1 xt-1 xt xt+1 Cálculo Recursivo

Viterbi 4 Cálculo de la secuencia más verosimil de forma backward oT x1 xt-1 xt xt+1 xT Cálculo de la secuencia más verosimil de forma backward

Estimación de los parámetros 1 oT o1 ot ot-1 ot+1 B B B B B Dada una secuencia de observaciones encontrar el modelo (= {,A,B}) que maximice la probabilidad de emitir la observación No existe método analítico para hacerlo

Estimación de los parámetros 2 Baum-Welch (Forward-Backward) Caso particular de la familia de algoritmos de Expectation Maximization (EM) Método iterativo de tipo hill-climbing

Estimación de los parámetros 3 Algoritmo EM Se ignoran (algunos de) los parámetros del modelo No se conoce la Estructura oculta Se dispone de una serie de observaciones Dos etapas Expectation Maximization

Estimación de los parámetros 4 E step: a partir de los parámetros actuales se recupera la estructura oculta Parámetros del modelo (probabilidades) Estructura oculta Observaciones M step: a partir de las observaciones y de la estructura oculta se recalculan los parámetros

Estimación de los parámetros 5 Baum-Welch (Forward-Backward) Comenzar con un modelo = {,A,B} inicial Cálculo de valores esperados del uso de las transiciones/emisiones Reestimar las probabilidades (el modelo) de acuerdo al modelo Repetir hasta lograr la convergencia

Estimación de los parámetros 6 oT o1 ot ot-1 ot+1 B B B B B Probabilidad de atravesar un arco (i,j) Probabilidad de estar en el estado i

Estimación de los parámetros 7 oT o1 ot ot-1 ot+1 B B B B B Reestimación de los parámetros del modelo

Aplicaciones POS tagging Generación de los parámetros de un LM NER NEC chunking ASR