MODELOS DE MARKOV OCULTOS

Slides:



Advertisements
Presentaciones similares
ESTADISTICA A ESTADISTICA A UNMSM - FQIQ
Advertisements

Introducción Las cadenas de markov son modelos probabilísticos que se usan para predecir la evolución y el comportamiento a corto y a largo plazo de determinados.
Estadística I. Finanzas Y Contabilidad
Procesos estocásticos 1
Teoría de Lenguajes Dr. Rogelio Dávila Pérez Profesor - Investigador
Relaciones y Funciones
Límite finito en el infinito
DEFINICIONES       Experiencia Aleatoria: es aquella cuyo resultado depende del azar: ( lanzto de un dado, una moneda, extraer una bola, una carta, etc.)
AZAR Y PROBABILIDAD.
Fallas y reparaciones: el papel de las cadenas de Markov
INSTITUTO TECNOLÒGICO UNIDAD IV CADENAS DE MARKOV
Ingeniería en Ciencias Económicas y Financieras
Ingeniería Matemática
Ingeniería en Ciencias Económicas y Financieras
Clase 9 TRANSFORAMCIONES ORTOGONALES Y UNITARIAS
Probabilidad y Estadística 93.24
Procesos Estocásticos
Capítulo 5 Método de MonteCarlo
2. INTRODUCCION A LA TEORIA DE LA PROBABILIDAD
Se lanza tres monedas sobre una mesa.
4. 0 DISTRIBUCIONES DISCRETAS DE PROBABILIDAD 4
1 M. en C. Gal Vargas Neri. ESTADISTICA I CSH, Tema III TEMARIO.
Si lanzamos la moneda N veces, obtendremos n caras y N-n sellos
Tema 4: Cadenas de Markov
Cadenas de Markov de Tiempo Discreto
Distribuciones Discretas
Proceso estocástico Cadena de Markov Estado Transición
Procesos Estocásticos
Modelos Ocultos de Markov

VARIABLE ALEATORIA Y DISTRIBUCION DE PROBABILIDAD
Variables Aleatorias Unidimensionales
Probabilidad. Variables aleatorias.
Bioinformática: Fundamentos y aplicaciones de actualidad Curso de verano 2005 Revisión de algunos modelos probabilísticos de evolución genética (Procesos.
Sesión 5: Modelos Ocultos de Markov
Sesión 5: Modelos Ocultos de Markov
Método Alias (Walter 1977) Permite generar de manera eficiente v.a.d. Con soporte finito. Supongamos que se desea generar la v.a.d. X con función de cuantía.
J. Troyano, Víctor Díaz, F. Enríquez y J. Barroso Departamento de Lenguajes y Sistemas Informáticos E.T.S. Ingeniería Informática Universidad de Sevilla.
Tema 8: Estimación 1. Introducción.
Teoría de Colas.
2. DISTRIBUCIÓN BINOMIAL Y DISTRIBUCIÓN NORMAL
Raúl Monroy (de las notas de Jane Hilston)
Proceso de vida y muerte. Considere un sistema en el que los estados representan el número de individuos o elementos en el sistema Si existen n personas.
Operaciones con Cadenas
Una introducción a la computación evolutiva
Modelos ocultos de Markov (HMM)
Ex ungue leonis Atribuido a Johann Bernoulli al leer dos soluciones anónimas, y reconociendo en ellas la redacción y genialidad de Isaac Newton Cadenas.
VARIABLE ALEATORIA UNIDIMENSIONAL
Econometría Procesos Estocásticos Capitulo IV
Hidden Markov Models Angélica Minaya Francesca Barletta Jeanette Velásquez Mónica Pajuelo Daniel Rueda.
Tema 14 DISTRIBUCIÓN Angel Prieto Benito
Distribuciones probabilísticas discretas
Investigación de Operaciones 2
Cadenas De Markov.
Un algoritmo es un método en el que se define paso a paso la solución de un problema que termina en un número infinito de pasos. Un algoritmo es otro tipo.
Modelos ocultos de Markov (HMM)
Hidden Markov Models Angélica Minaya Francesca Barleta Jeanette velásquez Mónica Pajuelo Daniel Rueda.
Procesos de Nacimiento y Muerte
DISTRIBUCIONES DE PROBABILIDAD
Sesión 9.- Unidad III. Técnicas de Conteo.
CLASE 1: PROBABILIDAD CONCEPTOS BÁSICOS Sector: Matemáticas
1.Introducción a la Estadística 2.Descripción de los conjuntos de datos 3.Uso de la Estadística para sintetizar conjuntos de datos 4.Probabilidad 5.Variables.
P y E 2012 Clase 15Gonzalo Perera1 Repaso de la clase anterior. Métodos de estimación.
Inferencia Estadística Conceptos Previos. Conceptos Previos Población: Es la colección de toda la posible información que caracteriza a un fenómeno aleatorio.
@ Angel Prieto BenitoMatemáticas Aplicadas CS I1 U.D. 14 * 1º BCS DISTRIBUCIÓN BINOMIAL.
FUNCIÓN DE PROBABILIDADES. ENTRE PROBABILIDADES Y FUNCIÓN HAY UNA ESTRECHA RELACIÓN…
PLAN CONTABLE GENERAL.
Espacio para el texto.
LOS LANCES RESIDENCIAL.
Modelos Ocultos de Markov Parte II
Transcripción de la presentación:

MODELOS DE MARKOV OCULTOS ALGORITMO DE VITERBI MODELOS DE MARKOV OCULTOS

PROCESOS ESTOCASTICOS Conjunto de v.a {Xt}tT tal que su distribución conjunta es conocida. Espacio de parámetros del proceso: T Espacio de Estados: Conjunto de todos los valores que pueden tomar la v.a

PROCESOS ESTOCASTICOS Conjunto de v.a {Xt}tT tal que su distribución conjunta es conocida. T: Espacio de parámetros del proceso Espacio de Estados: Conjunto de todos los valores que pueden tomar la v.a

PROCESOS ESTOCASTICOS Estados Parámetros Procesos Contable Infinito no Cont. Infinito Infinito no Cont Cadena Markov Estocástico

CADENA DE MARKOV Finito contable, Finito contable Lanzar una moneda 1’000.000 de veces Espacio de estados S= {0,1} Espacio de Parámetros T= {1,2,......1’000.000} Def: Sea un proceso {Yn}nT un proceso estocástico con espacio de estados y parámetros contables se dice que el proceso es una cadena de markov si P(Yn = in | Yn1=i1,Yn2=i2,.....Ynj=ij) n1<n2<n3...<nj) P(Yn=in | Yns=is) : Probabilidad que en el período n este en el estado in

Que el resultado solo dependa del último tiempo CADENA DE MARKOV Posibles Casos: Que el resultado solo dependa del último tiempo Cuando las Yn son independientes, entonces las partes no dependen una de la otra.

CADENA DE MARKOV MATRIZ DE TRANSICIÓN 1 2 3 4 5 6 7 8 9 Yn= No de pieza ocupada por el ratón en el tiempo n (No de pieza ocupada después de n movimientos) Pij = P(Yn=j / Yn-1 = i) Xn 1 2 3 4 5 6 7 8 9 Xn-1 1 0 ½ 0 ½ 0 0 0 0 0 2 1/3 0 1/3 0 1/3 0 0 0 0 . 9 1 2 3 4 5 6 0 <= Pij <= 1  Pij = 1  i-fila 7 8 9

MODELO DE MARKOV APLICADO A UNA SECUENCIA DE DATOS Definiciones Secuencia finita de datos: yt1t4 = {yt1, yt2, yt3, yt4} V.a que tome el valor de y: P(Y=y) Modelo de probabilidad: P(x) Distribución de Probabilidad Conjunta de una secuencia de observaciones T Y1= {Y1,Y2,Y3,....YT) Es dada por: T P(y1)= P(y1)P(y2/ y1)P(y3/y1y2)P(y4/y1y2y3) ..... T T t-1 P(y1)= P(y1)  P(yt/y1 )

MODELO DE MARKOV OCULTOS Definiciones Dado que para una variable de estados multinomial Qt  {1,2,...n}, el número de parámetros requeridos para representar la probabilidad de Transición P(qt|q t-1,q t-2,....q t-k} es O(n k+1), y dado que para un k pequeño no se satisfacen los supuestos estadísticos para un modelo de Markov, se asume la hipótesis, de que los datos pasados en el secuencia pueden ser consistentemente modelados a través de una variable de estado.

MODELO DE MARKOV OCULTOS Supuestos de un HMM Yt : Proceso Observable no “Markoviano” Qt: Conjunto de estados, “Markoviano” no observable de orden 1. Resume todos los valores pasados de las variables observadas y ocultas cuando se quiere predecir la variable observada Yt en el estado Q t+1.:

MODELO DE MARKOV OCULTOS Supuestos de un HMM T Y1= {Y1,Y2,Y3,....YT) Se relaciona con La secuencia observada La secuencia de estados T Q1= {Q1,Q2,Q3,....QT) no observados Independencia P(y 1 |q1,y1 ) = P(yt | qt) t t-1 t t P(q t+1 |q1,y1 ) = P(qt+1 | qt)

MODELO DE MARKOV OCULTOS Supuestos de un HMM Probabilidad de Estado Inicial P(q1) 1 inicial, 0 otros casos Probabilidad de Transición P(qt|q t-1) Probabilidad de Emisión P(yt|q t) Estado Inicial Estado Final

MODELO DE MARKOV OCULTOS Distribución Conjunta de HMM T-1 T P(y1,q1) = P(q1) P(q t+1| qt)  P(yt|qt) T T t=1 t=1 T P(y1,q1) = P(q1) P(y1|q1)  P(q t| qt-1) P(yt|qt,qt-1) T T t=2 T Dado que Q1 no es observada realmente interesa representar la distribución de P(y1), entonces, T T T T T P(y1) =  P(y1,q1) T t P(y1, qt) = P(yt|qt)  P(qt|q t-1) P(y1 , q t-1)) t-1

MODELO DE MARKOV OCULTOS Problemas Básicos con HMM .Evaluación de la Probabilidad: Calcular eficientemente la probabilidad de una secuencia dada. Algoritmo de Forward o de Avance Algoritmo de Backward o Retroceso Secuencia de estados óptimo Algoritmo de Viterbi Estimación de Parámetros Algoritmo de Baum-Welch (maximización): Optimizar las probabilidad de los parámetros del modelo, con el fin de ajustar los parámetros “secuencia de entrenamiento” hasta un punto dado.

MODELO DE MARKOV OCULTOS Probabilidades de Transición en un HMM Para algunas aplicaciones como en datos secuenciales o reconocimientos de cadenas (discurso) en un HMM se asume que los estados ocultos tienen un valor discreto, con una distribución multinomial, haciendo entonces que la probabilidad de Transición se pueda representar como: P(qt|q t-1) = A ij = P(Qt = i| q t-1 = j) Este supuesto no siempre se puede aplicar, cuando los estados ocultos presentan un comportamiento continuo se habla de un espacio de estados, en que la probabilidad es gaussiana. Por otro lado también pueden ser híbridos (discreta-continua)

MODELO DE MARKOV OCULTOS Probabilidades de Emisión en un HMM Para algunas aplicaciones como en datos secuenciales en un HMM Yt es una v.a discreta independiente y P(yt|q t), es multinomial. Entonces: P(yt|q t) = Bij = P(Yi | Qt =j) Y el vector de va. Yt se puede dividir en sub-vectores Yti y calcular: i P(yti| qt) Sin embargo en algunas aplicaciones, la distribución de emisión es normal o mezcla de normal

MODELO DE MARKOV OCULTOS Un ejemplo para generar una cadena en un HMM Sea QT = {1,2,3,F} = {a,b,c} P(q1) {1,0,0,0} 1 2 3 F a b c 1 2 3 0.2 0.5 0.3 0.0 0.1 0.0 0.9 0.0 0.0 0.0 0.4 0.6 Bij = 1 2 3 0.0 0.3 0.7 0.3 0.6 0.1 1.0 0.0 0.0 A ij =

MODELO DE MARKOV OCULTOS b c 0.0 0.3 0.7 0.3 0.6 0.1 1.0 0.0 0.4 0.2 0.1 iNIC 1 1 0.5 0.9 0.6 2 3 F 0.3 P(y1, qt) = P(yt|qt)  P(qt|q t-1) P(y1 , q t-1)) t-1 P(cab, qt) = (P1.B1,c) (1x0.7)

MODELO DE MARKOV OCULTOS Un ejemplo para generar una cadena en un HMM a b c 0.0 0.3 0.7 0.3 0.6 0.1 1.0 0.0 0.4 0.2 0.1 iNIC 1 1 0.5 0.9 0.6 2 3 F 0.3 P(y1, qt) = P(yt|qt)  P(qt|q t-1) P(y1 , q t-1)) t-1 P(cab, qt) = (P1.B1,c) (A1,2.B2,b) (1x0.7) (0.5 x 0.6)

MODELO DE MARKOV OCULTOS Un ejemplo para generar una cadena en un HMM a b c 0.0 0.3 0.7 0.3 0.6 0.1 1.0 0.0 0.4 0.2 0.1 iNIC 1 1 0.5 0.9 0.6 2 3 F 0.3 P(y1, qt) = P(yt|qt)  P(qt|q t-1) P(y1 , q t-1)) t-1 P(cab, qt) = (P1.B1,c) (A1,2.B2,b) (A2,3.B3,a) (1x0.7) (0.5 x 0.6) (0.9 x 1)

MODELO DE MARKOV OCULTOS Un ejemplo para generar una cadena en un HMM a b c 0.0 0.3 0.7 0.3 0.6 0.1 1.0 0.0 0.4 0.2 0.1 iNIC 1 1 0.5 0.9 0.6 2 3 F 0.3 P(y1, qt) = P(yt|qt)  P(qt|q t-1) P(y1 , q t-1)) t-1 P(cab, qt) = (P1.B1,c) (A1,2.B2,b) (A2,3.B3,a) A3,F (1x0.7) (0.5 x 0.6) (0.9 x 1) (0.6 x 1)

MODELO DE MARKOV OCULTOS Un ejemplo para generar una cadena en un HMM a b c 0.0 0.3 0.7 0.3 0.6 0.1 1.0 0.0 0.4 0.2 0.1 iNIC 1 0.5 1 0.9 0.6 2 3 F 0.3 P(y1, qt) = P(yt|qt)  P(qt|q t-1) P(y1 , q t-1)) t-1 P(cab, qt) = (P1.B1,c) (A1,2.B2,b) (A2,3.B3,a) A3,F (1x0.7) (0.5 x 0.6) (0.9 x 1) (0.6 x 1) + (P1.B1,c) (1x0.7)

MODELO DE MARKOV OCULTOS Un ejemplo para generar una cadena en un HMM a b c 0.0 0.3 0.7 0.3 0.6 0.1 1.0 0.0 0.4 0.2 0.1 iNIC 1 0.5 1 0.9 0.6 2 3 F 0.3 P(y1, qt) = P(yt|qt)  P(qt|q t-1) P(y1 , q t-1)) t-1 P(cab, qt) = (P1.B1,c) (A1,2.B2,b) (A2,3.B3,a) A3,F (1x0.7) (0.5 x 0.6) (0.9 x 1) (0.6 x 1) + (P1.B1,c) (A1,2.B2,b) (1x0.7) (0.2 x 0.3)

MODELO DE MARKOV OCULTOS Un ejemplo para generar una cadena en un HMM a b c 0.0 0.3 0.7 0.3 0.6 0.1 1.0 0.0 0.4 0.2 0.1 iNIC 1 0.5 1 0.9 0.6 2 3 F 0.3 P(y1, qt) = P(yt|qt)  P(qt|q t-1) P(y1 , q t-1)) t-1 P(cab, qt) = (P1.B1,c) (A1,2.B2,b) (A2,3.B3,a) A3,F (1x0.7) (0.5 x 0.6) (0.9 x 1) (0.6 x 1) + (P1.B1,c) (A1,2.B2,b) (A2,3.B3,a) (1x0.7) (0.2 x 0.3) (0.3 x 1)

MODELO DE MARKOV OCULTOS Un ejemplo para generar una cadena en un HMM a b c 0.0 0.3 0.7 0.3 0.6 0.1 1.0 0.0 0.4 0.2 0.1 iNIC 1 0.5 1 0.9 0.6 2 3 F 0.3 P(y1, qt) = P(yt|qt)  P(qt|q t-1) P(y1 , q t-1)) t-1 P(cab, qt) = (P1.B1,c) (A1,2.B2,b) (A2,3.B3,a) A3,F (1x0.7) (0.5 x 0.6) (0.9 x 1) (0.6 x 1) + (P1.B1,c) (A1,2.B2,b) (A2,3.B3,a) A3,F (1x0.7) (0.2 x 0.3) (0.3 x 1) (0.6 x 1)

MODELO DE MARKOV OCULTOS Un ejemplo para generar una cadena en un HMM a b c 0.0 0.3 0.7 0.3 0.6 0.1 1.0 0.0 0.4 0.2 0.1 iNIC 1 0.5 1 0.9 0.6 2 3 F 0.3 P(y1, qt) = P(yt|qt)  P(qt|q t-1) P(y1 , q t-1)) t-1 P(cab, qt) = (P1.B1,c) (A1,2.B2,b) (A2,3.B3,a) A3,F 0.1134 (1x0.7) (0.5 x 0.6) (0.9 x 1) (0.6 x 1) +0.00756 + (P1.B1,c) (A1,2.B2,b) (A2,3.B3,a) A3,F 0.12 (1x0.7) (0.2 x 0.3) (0.3 x 1) (0.6 x 1)

MODELO DE MARKOV OCULTOS ALGORITMO DE VITERBI Muy usado para reconocimiento de voz, biología molecular, fonemas, palabras, codificadores entre otros). Para secuencia de estados le corresponde una secuencia de labels de clasificación (e.d, palabras, caracteres, fonemas, sufijos). Dado una secuencia observada Y1 = y1, inferir la más probable secuencia de estados Q1 = q1 T T T T V(i,t) = P(y1|Q1=i) P(Q1=i) Si t=1 Si t>1 Max {P(yt|Qt=i) P(Q=i|Qt-1=j) V(j,t-1)} j

MODELO DE MARKOV OCULTOS EJEMPLO DE VITERBI V(bcbaa,t) b c b a a t Ini 1 0.0 0.3 0.7 1 1 2 3 F iNIC 0.5 0.9 0.6 0.1 0.3 0.2 0.3 0.6 0.1 2 1.0 0.0 3 F

MODELO DE MARKOV OCULTOS EJEMPLO DE VITERBI V(bcbaa,t) b c b a a t iNIC Ini 1 1 0.0 0.3 0.7 0.2 1 1 1*0.3 0.3 0.6 0.1 0.5 0.3 0.1 2 2 0.9 1.0 0.0 3 3 0.6 F F

MODELO DE MARKOV OCULTOS EJEMPLO DE VITERBI V(bcbaa,t) b c b a a t iNIC Ini 1 1 0.0 0.3 0.7 0.2 1 1 0.3 (0.3)*(0.2*0.7) 0.3 0.6 0.1 0.5 0.3 0.1 2 2 0.0 0.9 1.0 0.0 3 3 0.0 0.6 F F

MODELO DE MARKOV OCULTOS EJEMPLO DE VITERBI V(bcbaa,t) b c b a a t iNIC Ini 1 1 0.0 0.3 0.7 0.2 1 1 0.3 0.5 0.3 0.6 0.1 0.3 0.1 2 2 0.0 (0.3)*(0.5*0.1) 0.9 1.0 0.0 3 3 0.0 0.6 F F

MODELO DE MARKOV OCULTOS EJEMPLO DE VITERBI V(bcbaa,t) b c b a a t iNIC Ini 1 1 0.0 0.3 0.7 0.2 1 1 0.3 0.3 0.6 0.1 0.5 0.3 0.1 2 2 0.0 0.9 1.0 0.0 3 3 0.0 (0.3)*(0.3*0.0) 0.6 F F

MODELO DE MARKOV OCULTOS EJEMPLO DE VITERBI V(bcbaa,t) b c b a a t iNIC Ini 1 1 0.0 0.3 0.7 0.2 1 1 0.3 0.042 (0.042)*(0.2*0.3) 0.3 0.6 0.1 0.5 0.3 0.1 2 2 0.0 0.015 0.9 1.0 0.0 3 3 0.0 0.000 0.6 F F

MODELO DE MARKOV OCULTOS EJEMPLO DE VITERBI V(bcbaa,t) b c b a a t iNIC Ini 1 1 0.0 0.3 0.7 0.2 1 1 0.3 0.042 0.3 0.6 0.1 0.5 0.3 0.1 2 2 0.0 0.015 (0.042)*(0.5*0.6) 0.9 1.0 0.0 3 3 0.0 0.000 0.6 F F

MODELO DE MARKOV OCULTOS EJEMPLO DE VITERBI V(bcbaa,t) b c b a a t iNIC Ini 1 1 0.0 0.3 0.7 0.2 1 1 0.3 0.042 0.3 0.6 0.1 0.5 0.3 0.1 2 2 0.0 0.015 0.9 1.0 0.0 3 3 0.0 (0.042)*(0.3*0.0) 0.000 0.6 F F

MODELO DE MARKOV OCULTOS EJEMPLO DE VITERBI V(bcbaa,t) b c b a a t Ini 1 0.0 0.3 0.7 1 0.3 0.042 (0.042)*(0.2*0.3) 1 2 3 F iNIC 0.5 0.9 0.6 0.1 0.3 0.2 0.3 0.6 0.1 2 0.015 (0.042)*(0.5*0.6) 1.0 0.0 3 (0.042)*(03*0.0 ) F

MODELO DE MARKOV OCULTOS EJEMPLO DE VITERBI V(bcbaa,t) b c b a a t iNIC Ini 1 1 0.0 0.3 0.7 0.2 1 1 0.3 0.042 0.0025 0.3 0.6 0.1 0.5 0.3 0.1 2 2 0.0 0.015 0.0126 0.9 1.0 0.0 3 3 0.0 0.000 0.000 0.6 F F

MODELO DE MARKOV OCULTOS EJEMPLO DE VITERBI V(bcbaa,t) b c b a a t iNIC Ini 1 1 0.0 0.3 0.7 0.2 1 1 0.3 0.042 0.0025 0.0126*(0.1*0.0) 0.3 0.6 0.1 0.5 0.3 0.1 2 2 0.0 0.015 0.0126 0.9 1.0 0.0 3 3 0.0 0.000 0.000 0.6 F F

MODELO DE MARKOV OCULTOS EJEMPLO DE VITERBI V(bcbaa,t) b c b a a t iNIC Ini 1 1 0.0 0.3 0.7 0.2 1 1 0.3 0.042 0.0025 0.3 0.6 0.1 0.5 0.3 0.1 2 2 0.0 0.015 0.0126 0.0126*(0.0*0.3) 0.9 1.0 0.0 3 3 0.0 0.000 0.000 0.6 F F

MODELO DE MARKOV OCULTOS EJEMPLO DE VITERBI V(bcbaa,t) b c b a a t iNIC Ini 1 1 0.0 0.3 0.7 0.2 1 1 0.3 0.042 0.0025 0.3 0.6 0.1 0.5 0.3 0.1 2 2 0.0 0.015 0.0126 0.9 1.0 0.0 3 3 0.0 0.0126*(0.9*1.0) 0.000 0.000 0.6 F F

MODELO DE MARKOV OCULTOS EJEMPLO DE VITERBI V(bcbaa,t) b c b a a t iNIC Ini 1 1 0.0 0.3 0.7 0.2 1 1 0.3 0.042 0.0025 0.00 0.3 0.6 0.1 0.5 0.3 0.1 2 2 0.0 0.015 0.0126 0.0004 0.9 1.0 0.0 3 3 0.0 0.000 0.000 0.0113 0.6 F F

MODELO DE MARKOV OCULTOS EJEMPLO DE VITERBI V(bcbaa,t) b c b a a t iNIC Ini 1 1 0.0 0.3 0.7 0.2 1 1 0.3 0.042 0.0025 0.00 0.00 0.3 0.6 0.1 0.5 0.3 0.1 2 2 0.0 0.015 0.0126 0.0004 0.00 0.9 1.0 0.0 3 3 0.0 0.000 0.000 0.0113 0.0045 0.6 F 0.0027 F