Cadenas de Markov Cadena de Markov: proceso estocástico de tiempo discreto que para t=0,1,2,... y todos los estados verifica P(Xt+1=it+1 | Xt=it, Xt-1=it-1,...,

Slides:



Advertisements
Presentaciones similares
Fallas y reparaciones: el papel de las cadenas de Markov
Advertisements

Capítulo 2 Cadenas de Markov
MATERIA: INVESTIGACIÓN DE OPERACIONES 2 EQUIPO : EQUIP 4 CATEDRATICO: ZINATH JAVIER JERONIMO INTEGRANTES: Yesenia Contreras Magaña Widman Antonio Hernández.
INSTITUTO TECNOLOGICO DE VILLAHERMOSA
INSTITUTO TECNOLÒGICO UNIDAD IV CADENAS DE MARKOV
Ingeniería en Ciencias Económicas y Financieras
Ingeniería Matemática
Ingeniería en Ciencias Económicas y Financieras
Tema 1: Programación dinámica
GRAFCET Grafica de Control de Etapas de Transición
Clouds by Chance: Improving Atmosphere Models with Random Numbers
Sesión 12: Procesos de Decisión de Markov
Tema 4: Cadenas de Markov
Cadenas de Markov de Tiempo Discreto
Proceso estocástico Cadena de Markov Estado Transición
Bioinformática: Fundamentos y aplicaciones de actualidad Curso de verano 2005 Revisión de algunos modelos probabilísticos de evolución genética (Procesos.
Modelos de máxima verosimilitud para secuencias de ADN

Ecuaciones de Chapman Kolmogorov
ITERACIÓN DE UN PUNTO FIJO. Un punto fijo de una función g es un número para el cual g(p)=p Los problemas de punto fijo y los de búsqueda de raíces tienen.
Proceso de vida y muerte. Considere un sistema en el que los estados representan el número de individuos o elementos en el sistema Si existen n personas.
Ex ungue leonis Atribuido a Johann Bernoulli al leer dos soluciones anónimas, y reconociendo en ellas la redacción y genialidad de Isaac Newton Cadenas.
INVESTIGACIÓN OPERATIVA
Investigación de Operaciones 2
Cadenas De Markov.
MOVIMIENTO CURVILINEO
Villahermosa, Tab. 24 noviembre del 2010 ING. INDUSTRIAL INVESTIGACIÓN DE OPERACIONES II CATEDRATICO: Zinath Javier Gerónimo UNIDAD 4 CADENAS DE MARKOV.
TEMA 3 : DISTRIBUCIONES DE PROBABILIDADES EN LA UNIDAD ANTERIOR ESTUDIAMOS EL CONCEPTO DE PROBABILIDAD, AQUÍ INTEGRAREMOS UN EXPERIMENTO O EXPERIENCIA.
Cadenas de Markov. Agenda 1.Problema de Inventario – Revisión periódica con demanda estocástica 2.Formulación (Matricial) de Cadenas de Markov 3.Dinámica.
Un grafo consta de un conjunto de vértices y un conjunto de aristas. Cada arista de un grafo se especifica mediante un par de vértices. Denotemos al conjunto.
Ecuación de la grafica: y = 6 – 2x y = 6 – 2x y = 6 – 2(0) y = 6 ( x, y ) ( 0, 6 ) xy
Distribuciones de probabilidad (variables discretas
Unidad 1 Cinemática Semana 1:
NOCIONES ELEMENTALES DE LOGICA Y TERIA DE CONJUNTOS
ENSEÑANZA DEL ALGEBRA INICIAL
PPTCES011CB32-A09V1 Movimiento.
Investigación Operativa II.  Se dice que el estado j es accesible desde el estado i, si para alguna etapa n≥0 Que el estado j sea ACCESIBLE desde el.
Alumno: francisco Ismael huerta moreno
El conjunto de los números naturales
LICENCIATURA EN SISTEMAS DE COMPUTACIÓN ADMINISTRATIA TEORÍA DE MODELOS
Clase 3: Medidas de Posición
AUTOMATAS Y LENGUAJES FORMALES FASE 1
MATEMÁTICA DISCRETA Y LÓGICA 1
Francisco Martínez y Rodrigo Henríquez
MODELOS ESTOCÁSTICOS. A los modelos que consideran la estocasticidad del medio se les conoce como modelos estocásticos del crecimiento de la población.
CONTINUACIÓN CAPÍTULO 7
Análisis de error en estado estacionario México D.F. a 18 de Septiembre de 2006 Departamento de Control, División de Ingeniería Eléctrica Facultad de Ingeniería.
La lectura inicial en la didáctica moderna
UNIVERSIDAD INSURGENTES
Tema 7: Uso de la probabilidad en la investigación psicológica
Estudio experimental de la caída vertical de un objeto
III. de Líneas o Curvilíneas: C
EPS-UAM Curso de doctorado Modelos de Conectividad
Estructuras de Datos MC Beatriz Beltrán Martínez Primavera 2018
Análisis de las Redes de Petri
Árbol de probabilidad.
8.5.7 Comparación de las gráficas de dos distribuciones (frecuencial y teórica) al realizar muchas veces un experimento. Los alumnos han realizado registros.
Tema 8: Procesos Estocásticos
Grafos (parte 1).
Estudio del movimiento
Un tren lleva v = 28 m/s y comienza a frenar cuando está a 400 m de la estación. La velocidad disminuye 0,5 m/s en cada segundo siendo constante durante.
2. DISTRIBUCIÓN BINOMIAL Y DISTRIBUCIÓN NORMAL
MAPA DE NAVEGACIÓN INECUACIONES UNIDAD 8 Índice Teoría Y Ejemplos.
Equipo 4 ÁRBOL DE DESICIÓN. UN ÁRBOL DE DECISIÓN:  Es una forma grafica y analítica para representar eventos o sucesos que puedan surgir a partir de.
1 VARIABLE ALEATORIA COLEGIOS MONTE TABOR Y NAZARET DEPARTAMENTO DE MATEMÁTICA III MEDIO – 2019.
PLN hmm1 Modelos ocultos de Markov (HMM) Introducción Cálculo de la probabilidad de una observación Algoritmo Forward Algoritmo Backward Algoritmo de Viterbi.
Depto. Matemáticas – IES Elaios Tema: Distribuciones de Probabilidad 2. DISTRIBUCIÓN BINOMIAL Y DISTRIBUCIÓN NORMAL Presentación elaborada por el profesor.
DR. VÍCTOR MORÁN CÁCERES MSC 1.1 Funciones en el plano: definición, dominio, rango, variables, clasificación, operaciones.
TEORIA de ERRORES. Generalidades:  Una “discrepancia" es la diferencia entre dos valores medidos de la misma cantidad.-  La “precisión” se refiere al.
DISTRIBUCION.
Transcripción de la presentación:

Cadenas de Markov Cadena de Markov: proceso estocástico de tiempo discreto que para t=0,1,2,... y todos los estados verifica P(Xt+1=it+1 | Xt=it, Xt-1=it-1,..., X1=i1, X0=i0)=P(Xt+1=it+1|Xt=it) Hipótesis de estabilidad: P(Xt+1=j|Xt=i)=pij (no depende de t) Probabilidades de transición: Pij Matriz de probabilidades de transición: Se debe verificar:

Las cadenas de Markov que cumplen la hipótesis de estabilidad se llaman cadenas estacionarias de Markov. Distribución inicial de probabilidad de una cadena de Markov: q=[q1,...,qs] donde qi=P(X0=i) Cadenas de Markov

Definición Una cadena de Markov se vuelve “estacionaria” cuando el resultado de las ecuaciones deja de ser una probabilidad, es decir, que a partir de este momento se conoce con certeza su resultado.

Cadenas de Markov Ejemplo: la ruina del jugador es una cadena de Markov estacionaria Estados: 0, 1, 2, 3, 4 Matriz de transición La matriz de transición se puede representar con un grafico en el que cada nodo representa un estado y cada arco la probabilidad de transición entre estados.

Probabilidades después de n pasos Si una cadena de Markov estacionaria está en el estado i en el tiempo m, ¿cuál es la probabilidad de que n períodos después la cadena esté en el estado j? P(Xm+n=j|Xm=i)=P(Xn=j|X0=i)=Pij(n) Pij(n) es la probabilidad en la etapa n de una transición del estado i al estado j Pij(1)=pij, P ij(n)= elemento ij-ésimo de Pn Probabilidad de estar en el estado j en el tiempo n =

Clasificación de estados en una cadena de Markov Dados dos estados i y j, la trayectoria de i a j es la sucesión de transiciones que comienza en i y termina en j, de forma que cada transición de la secuencia tenga probabilidad positiva. Un estado j es alcanzable desde un estado i si hay una trayectoria de i a j. Dos estados i y j se comunican si i es alcanzable desde j y j es alcanzable desde i. Un conjunto de estados S en una cadena de Markov es cerrado (constituyen una clase de la cadena) sin ningún estado fuera de S es alcanzable desde un estado en S. Un estado i es absorbente si Pii=1

Clasificación de estados en una cadena de Markov Un estado i es transitorio si hay un estado j alcanzable desde i, pero el estado i no es alcanzable desde j. Un estado es recurrente si no es transitorio. Un estado i es periódico con periodo k>1 si k es el menor número tal que todas las trayectorias que parten del estado i y regresan al estado i tienen una longitud múltiplo de k. Si un estado recurrente no es periódico es aperiódico. Si todos los estado de una cadena son recurrentes, aperiódicos y se comunican entre sí, la cadena es ergódica.

Referencias: Procesos Estócasticos y Cadenas de Markov.- Carmen Ma. Garcia López Francisco R. Villatoro