Villahermosa, Tab. 24 noviembre del 2010 ING. INDUSTRIAL INVESTIGACIÓN DE OPERACIONES II CATEDRATICO: Zinath Javier Gerónimo UNIDAD 4 CADENAS DE MARKOV.

Slides:



Advertisements
Presentaciones similares
INSTITUTO TECNOLÓGICO DE VILLAHERMOSA   MATERIA:
Advertisements

Introducción Las cadenas de markov son modelos probabilísticos que se usan para predecir la evolución y el comportamiento a corto y a largo plazo de determinados.
Seminario: Todo Prof. Eduardo Alejandro Barrio 1er cuatrimestre de 2006 Facultad de Filosofía y Letras, UBA.
Las fracciones Los términos de una fracción son el numerador y el denominador. El denominador indica el número de partes iguales en que se divide la unidad.
DEFINICIONES       Experiencia Aleatoria: es aquella cuyo resultado depende del azar: ( lanzto de un dado, una moneda, extraer una bola, una carta, etc.)
Investigación de Operaciones
Fallas y reparaciones: el papel de las cadenas de Markov
Capítulo 2 Cadenas de Markov
MATERIA: INVESTIGACIÓN DE OPERACIONES 2 EQUIPO : EQUIP 4 CATEDRATICO: ZINATH JAVIER JERONIMO INTEGRANTES: Yesenia Contreras Magaña Widman Antonio Hernández.
INVESTIGACIÓN DE OPERACIONES II
DERIVADA DE UNA FUNCION REAL
INSTITUTO TECNOLOGICO DE VILLAHERMOSA
En el momento de empezar a pensar, estaremos en A, con una velocidad v, a una altura h. En ausencia de impulsos, rozamientos y otras pérdidas, la velocidad.
INSTITUTO TECNOLÒGICO UNIDAD IV CADENAS DE MARKOV
Instituto tecnológico de Villahermosa
JAVIER ALVAREZ PRESENTA
Investigación de Operaciones II
Ingeniería en Ciencias Económicas y Financieras
Ingeniería Matemática
Ingeniería en Ciencias Económicas y Financieras
INGENIERIA INDUSTRIAL.
DERIVADAS PARCIALES Gráficas.
Álgebra elemental.
Tema 4: Cadenas de Markov
Potencias de exponente natural mayor que 1
Potencias de exponente natural mayor que 1
GRAFOS HUGO ARAYA CARRASCO.
EXPONENTES Y RADICALES
Cadenas de Markov de Tiempo Discreto
I n s t i t u t o T e c n o l ó g i c o d e T e c n o l ó g i c o d e V i l l a h e r m o s a ING. EN SISTEMAS CATEDRATICO: I.I. Zinath Javier Gerónimo.
Switch en PHP Programación en Internet II. Switch en PHP Programación en Internet II Universidad de Guadalajara | Centro Universitario de la Costa Elegir.
Proceso estocástico Cadena de Markov Estado Transición
Matemáticas Discretas
Clasificación de los números reales
Bioinformática: Fundamentos y aplicaciones de actualidad Curso de verano 2005 Revisión de algunos modelos probabilísticos de evolución genética (Procesos.
Introducción a Funciones de una variable
Ecuaciones de Chapman Kolmogorov
INSTITUTO TECNOLÓGICO DE VILLAHERMOSA. CATEDRATICO:
Potencias y raíces 1. Potencias 2. Operaciones con potencias
Teoría de Colas.
EL PODER DE LAS PALABRAS
Teoría de Sistemas Operativos Sincronización Procesos Departamento de Electrónica 2º Semestre, 2003 Gabriel Astudillo Muñoz
Teoría de Trafico en Redes
INVESTIGACIÓN OPERATIVA
Subastas Referencia: Cap.14
Sistema Numérico Binario Prof. Carlos Rodríguez Sánchez.
Villahermosa, Tab. 21 septiembre MATERIA: Investigacion de operaciones TEMA: Lineas de espera ALUMNOS: Maria isabel vega chanona HORA: 11:00 am a.
Límites y continuidad Podríamos empezar diciendo que los límites son importantes en el cálculo, pero afirmar tal cosa sería infravalorar largamente su.
POTENCIACIÓN La potenciación es una operación que permite escribir de manera abreviada una multiplicación de factores iguales. 4² = 4x4 = 16 es decir.
Estructura de Datos 4 Grafos Dirigidos
Investigación de Operaciones 2
Cadenas De Markov.
Villahermosa, Tab. 27 de octubre del 2010 ING. INDUSTRIAL INVESTIGACIÓN DE OPERACIONES II CATEDRATICO: Zinath Javier Gerónimo UNIDAD 3: Teoría De Decisión.
Villahermosa, Tab. 24 noviembre del 2010 ING. INDUSTRIAL INVESTIGACIÓN DE OPERACIONES II CATEDRATICO: Zinath Javier Gerónimo UNIDAD 5 SUBTEMA: “ARBOLES.
Unidad IV Cadenas de Markov
Cap. 8 Energía Potencial Conservación de Energía
I n s t i t u t o T e c n o l ó g i c o d e T e c n o l ó g i c o d e V i l l a h e r m o s a ING. EN SISTEMAS CATEDRATICO: I.I. Zinath Javier Gerónimo.
Multiplicación de Vectores
TEMA 2: POTENCIAS DE BASE ENTERA
VILLAHERMOSA, TAB. A 11 OCTUBRE DEL 2011 ING. SISTEMAS MATERIA: INVESTIGACION DE OPERACIONES CATEDRATICO: I.I ZINATH JAVIER GERONIMO TEMA: ANÁLISIS DE.
Ejemplo 3.3 El robot debe recorrer la avenida 1 hasta encontrar una esquina con flor y papel. Al finalizar el recorrido se debe informar la cantidad de.
Función de transferencia de procesos muestreados
DETECCION DE SEÑALES BINARIAS EN RUIDO GAUSSIANO El criterio de toma de decisión fue descrito por la ecuación Un criterio muy usado para escoger el nivel.
UNIDAD II LINEAS DE ESPERA
Estrategias Mixtas En teoría de juegos una estrategia mixta, a veces también llamada estrategia mezclada (del nombre en inglés mixed strategy), es una.
MENSAJES CONFIABLES EN CANALES NO CONFIABLES NOMBRE: CÉSAR GRANIZO FECHA: 08/06/2016.
EL BINOMIO DE NEWTON.
Ing. José David Ortiz Salas
Cadenas de Markov Cadena de Markov: proceso estocástico de tiempo discreto que para t=0,1,2,... y todos los estados verifica P(Xt+1=it+1 | Xt=it, Xt-1=it-1,...,
Investigación Operativa II.  Se dice que el estado j es accesible desde el estado i, si para alguna etapa n≥0 Que el estado j sea ACCESIBLE desde el.
Transcripción de la presentación:

Villahermosa, Tab. 24 noviembre del 2010 ING. INDUSTRIAL INVESTIGACIÓN DE OPERACIONES II CATEDRATICO: Zinath Javier Gerónimo UNIDAD 4 CADENAS DE MARKOV CADENAS DE MARKOV Clasificación de las cadenas de Markov EQUIPO 5 MONTEJO ZAPATA MARICELA BULOS ZAMORA GRACE ANAHI SALAS ALPUIN LUIS ALFREDO MERCADO GÁMEZ OMAR SÁNCHEZ ORTIZ LUIS MANUEL VÁZQUEZ FLORES LINO MAURICIO CARRASCO SANCHEZ LIZBETH ARACELY

DEFINICIÓN: Dado dos estados i y j, la trayectoria de i a j es la sucesión de transiciones que comienza en i y termina en j, de modo que cada transición de la secuencia que tenga la probabilidad positiva de presentarse. Figura 6 Representación Grafica de la Matriz de Transición. S1 S

DEFINICIÓN: Un estado j es alcanzable desde un estado i si hay una trayectoria que vaya de i a j. DEFINICIÓN: Se dice que dos estados i y j se comunican si j es alcanzable desde i, e i es alcanzable desde j. Para la matriz P de probabilidad de transición representada en la fig. 6, el estado 5 es alcanzable desde el estado 3 (a través de la trayectoria 3-4-5), pero el estado 5 no es alcanzable desde el estado 1 (no hay trayectoria que vaya de 1 a 5 en la fig. 6) también, los estados 1 y 2 se comunican: podemos pasar de 1 a 2 y de 2 a 1. DEFINICIÓN: Un conjunto de estados S en una cadena de markov es conjunto cerrado si ningún estado fuera de S es alcanzable desde un estado en S. De la cadena de markov con la matriz F de la fig. 6 tanto S1= (1,2) Como S2 =( 3,4,5) son conjuntos cerrados. Observe que una vez que entramos a un conjunto cerrado no podemos dejarlo nunca. En la fig. 6 ningún arco com9ienza en S1 y termina en S2 o principia en S2 y termina en S1.

DEFINICIÓN: Un estado i es estado absorbente S1 p a = 1 S iempre que entramos aun estado de absorción, nunca lo podremos dejar. En el ejem. 1 la rutina del jugador, los estados 0 y 4 son absorbentes. Es natural que un estado absorbente sea un conjunto cerrado que solo contenga un estado. DEFINICIÓN: Un estado i es un estado transitorio si hay un estado j alcanzable desde i, pero el estado i no es alcanzable desde el estado j. En otras palabras, un estado i es un transitorio si hay manera de dejar el estado i de tal modo que nunca regrese a el. En el ejemplo (fig. 1), desde el estado 2 es posible pasar por la trayectoria 2-3-4, pero no hay modo de regresar el estado 2 desde el estado 4. igualmente, en el ejem. 2,[2 0 0], [1 1 0] y [1 0 1] son estados transitorios. En la fig. 2, hay una trayectoria desde [1 0 1] a [0 0 2], pero una vez que se hayan pintado ambas bolas, no hay manera de regresar a [1 0 1].

Después de un gran numero de periodos, la probabilidad de encontrarse en cualquier estado de transición i es cero. Cada vez que entramos aun estado i de transición, hay una probabilidad positiva de dejar i para siempre y terminar en el estado j descrito en la definición de estado transitorio. Así, al final, tenemos la seguridad de entrar al estado j (y en ese caso nunca regresamos al estado i). Así, suponga que en el ejem. 2 nos encontramos en el estado transitorio [1 0 1]. Con probabilidad 1, la bola no pintada la pintaremos finalmente y nunca regresemos a ese estado [1 0 1] (fig.2). DEFINICIÓN: Si un estado no es transitorio, se llama estado recurrente. En el ejem. 1, los estados 0 y 4 son estados recurrentes (y también n estados absorbentes) en el ejem. 2 [0 2 0] y [0 1 1] son estados recurrentes. Para la matriz de transición de la Fig.6, todos los estados son recurrentes.

DEFINICIÓN: un estado i es periódico con periodo k es el menor numero tal que todas las trayectorias que parten del estado i y regresan al estado i tienen una longitud múltiple de k si un estado recurrente no es periódico. se llama aperiódico. Para la cadena de Markov cuya transición es: Q= Cada estado tiene periodo 3. Por ejemplo, así comenzamos en el estado 1, la única manera de regresar a ese estado es seguir la trayectoria durante digamos m veces (Fig. 7) por lo tanto, cualquier regreso al estado 1 tomara 3m transiciones, de modo que el estado 1 tiene periodo 3. donde nos encontremos, tenemos la seguridad de regresar allí tres periodos después.

Figura 7 Cadena periódica de Markov con k=3 123 DEFINICIÓN: Si todos los estados de una cadena son recurrentes, aperiódicos y se comunican entre si, se dice que la cadena es ergódica. El ejemplo de la ruina del jugador no es cadena ergódida porqué, por ejemplo, los estados 3 y 4 no se comunican. El ejem. 2 tampoco es una cadena ergódida porqué, por ejemplo,[2 0 0] y [0 1 1] no se comunican. El ejem. 4, el ejemplo de la cola, es cadena ergódica de markov. De las siguientes tres cadenas de markov,P1 y P3 son ergodicas y P2 no es ergódica.