Ingeniería en Ciencias Económicas y Financieras

Slides:



Advertisements
Presentaciones similares
Introducción Las cadenas de markov son modelos probabilísticos que se usan para predecir la evolución y el comportamiento a corto y a largo plazo de determinados.
Advertisements

Introducción a la Estadística
Tema 7: Probabilidad 1. Introducción. 2. Variables aleatorias.
Procesos estocásticos 1
Profesor : Rodrigo Sanchez H.
Capítulo 2 Cadenas de Markov
Alumna: Mayra Isabel Zurita Rivera
INVESTIGACIÓN DE OPERACIONES II
Modelo M | M | 1 Teoria de Colas.
Bivariadas y Multivariadas
INSTITUTO TECNOLOGICO DE VILLAHERMOSA
Instituto Tecnológico
INSTITUTO TECNOLÒGICO UNIDAD IV CADENAS DE MARKOV
Objetivo Comprender cómo se determinan simultáneamente la producción, la tasa de paro y la tasa de interés en el corto y en el medio plazo. Comprender.
UNIDAD 2 CARRERA: ALUMNO: CATEDRATICO:
Instituto tecnológico de Villahermosa
Ingeniería Matemática
Ingeniería en Ciencias Económicas y Financieras. Considere el caso de un vendedor que debe decidir cuántos diarios ordenar cada día a la planta de periódicos.
Ingeniería en Ciencias Económicas y Financieras
Unidad académica: Ingenierías
Procesos Estocásticos
KRIGING.
Representación en espacio de estado
Hugo Jimenez Miguel Galicia Manuel Wiechers. Introducción No solo considera el edo. del proceso en el instante t El costo puede depender de más variables.
Clouds by Chance: Improving Atmosphere Models with Random Numbers
Karen Junieth Zeledón Urrutia
Sesión 12: Procesos de Decisión de Markov
Tema 4: Cadenas de Markov
PROBABILIDAD Y ESTADISTICA
Sesión 2: Métodos Probabilísticos Básicos
Cadenas de Markov de Tiempo Discreto
Sep INSTITUTO TECNOLÓGICO DE TEPIC INGENIERÍA CIVIL HIDROLOGÍA SUPERFICIAL 2008 ANÁLISIS DE LA PRECIPITACIÓN QUE SE REGISTRA EN UNA ESTACIÓN CLIMÁTICA.
Clases IES 424 Macroeconomía parte 2. Conceptos Las variables de flujo, son aquellas que se expresan en relación a un lapso de tiempo. Por ejemplo,
Proceso estocástico Cadena de Markov Estado Transición
Escuela de Ingeniería Eléctrica
Procesos Estocásticos
Capítulo 9 Modelos de Espera
Sesión 6: Campos de Markov
Sesión 12: Procesos de Decisión de Markov. Incertidumbre - MDP, L.E. Sucar2 Procesos de Decisión de Markov Procesos de Decisión Secuenciales Procesos.
ANÁLISIS DE MERCADO: DEMANDA, OFERTA Y ELASTICIDADES
Bioinformática: Fundamentos y aplicaciones de actualidad Curso de verano 2005 Revisión de algunos modelos probabilísticos de evolución genética (Procesos.
Programación Dinámica
Ecuaciones de Chapman Kolmogorov
M. Angélica Maulén-Yañez (1) y Eduardo González-Olivares (2)
Teoría de Colas.
Departamento de Informática Universidad Santa María
Raúl Monroy (de las notas de Jane Hilston)
LÍNEAS DE ESPERA Gabriel García Velazquez.
CONCEPTOS BÁSICOS DE MECÁNICA CUÁNTICA
Teoría de Trafico en Redes
Capítulo 1. Conceptos básicos de la Estadística
Econometría Procesos Estocásticos Capitulo IV
INVESTIGACIÓN OPERATIVA
Procesos Estocásticos Edgar H Criollo V Mayo 2010
8. Distribuciones continuas
Villahermosa, Tab. 21 septiembre MATERIA: Investigacion de operaciones TEMA: Lineas de espera ALUMNOS: Maria isabel vega chanona HORA: 11:00 am a.
Unidad 2:Lineas de espera 2
2.1 DEFINICIONES LINEAS DE ESPERA, CARACTERISTICAS Y SUPOSICIONES
Investigación de Operaciones 2
Cadenas De Markov.
Unidad IV Cadenas de Markov
Procesos de Nacimiento y Muerte
2.1 DEFINICIONES CARACTERÍSTICAS Y SUPOSICIONES.
Fecha de entrega: 21/09/11. La Teoría de Colas es el estudio de la espera en las distintas modalidades. El uso de los modelos de colas sirve para representar.
Alumno: Hebert Rangel Gutierrez Matricula: Tutor: Leonardo Olmedo Asignatura: Estadistica Descriptiva Licenciatura en Tecnologías de la Información.
1 2  La Teoría de la Probabilidad constituye la base o fundamento de la Estadística, ya que las ingerencias que hagamos sobre la población o poblaciones.
Villahermosa, Tab. 24 noviembre del 2010 ING. INDUSTRIAL INVESTIGACIÓN DE OPERACIONES II CATEDRATICO: Zinath Javier Gerónimo UNIDAD 4 CADENAS DE MARKOV.
Definición. Una Cola es una línea de espera y la teoría de colas es una colección de modelos matemáticos que describen sistemas de líneas de espera particulares.
Investigación Operativa II.  Se dice que el estado j es accesible desde el estado i, si para alguna etapa n≥0 Que el estado j sea ACCESIBLE desde el.
UNIVERSIDAD INSURGENTES
Transcripción de la presentación:

Ingeniería en Ciencias Económicas y Financieras Cadenas de Markov Ingeniería en Ciencias Económicas y Financieras

Proceso estocástico: • Es un conjunto o sucesión de variables aleatorias: {Xt} definidas en un mismo espacio de probabilidad. • Normalmente el índice t ϵT representa un tiempo y Xt el estado del proceso estocástico en el instante t. • El proceso puede ser de tiempo discreto o continuo si T es discreto o continuo. (Un proceso estocástico es de tiempo continuo si el estado del sistema se revisa en cualquier tiempo) • Si el proceso es de tiempo discreto, usamos enteros para representar el índice: {X0, X1, ...}

Ejemplos de procesos estocásticos: Serie mensual de ventas de un producto Estado de una máquina al final de cada semana (funciona/averiada) Nº de clientes esperando en una cola cada 30 segundos Marca de detergente que compra un consumidor cada vez que hace la compra. Se supone que existen 7 marcas diferentes Número de unidades en inventario al finalizar la semana

Introducción Las cadenas de Markov son modelos probabilísticos que se usan para predecir la evolución y el comportamiento a corto y a largo plazo de determinados sistemas. Ejemplos: Reparto del mercado entre marcas Dinámica de las averías de máquinas para decidir política de mantenimiento Evolución de una enfermedad, etc.

1. Definición de Cadena de Markov Una Cadena de Markov (CM) es: Un proceso estocástico Con un número finito de estados (M+1) Con probabilidades de transición estacionarias Que tiene la propiedad markoviana

ELEMENTOS DE UNA CADENA DE MARKOV Un conjunto finito de M+1 estados, exhaustivos y mutuamente excluyentes Ciclo de markov (“paso”) : periodo de tiempo que sirve de base para examinar las transiciones entre estados (ejemplo: un mes, una semana, un año, etc) Probabilidades de transición entre estados, en un ciclo (matriz P) Distribución inicial del sistema entre los M+1 estados posibles

Cadenas de Markov Un proceso estocástico tiene la propiedad markoviana si las probabilidades de transición en un paso sólo dependen del estado del sistema en el período anterior (memoria limitada o falta de memoria) Propiedad markoviana: “Probabilidad condicional de cualquier evento futuro dado cualquier evento pasado y siendo el estado actual Xt=i, es independiente de cualquier estado pasado y solo depende del estado actual del proceso” Probabilidades Estacionarias: “Las probabilidades de transición no cambian con el tiempo”

Cadenas de Markov y matriz de transición a n pasos Se debe satisfacer: pij(n)≥0 para toda i y toda j, n=0, 1, 2 𝑗=0 𝑚 𝑝𝑖𝑗 (𝑛) =1 𝑝𝑎𝑟𝑎 𝑡𝑜𝑑𝑎 𝑖, 𝑛=0,1,… Se asumirá que se conocen las probabilidades iniciales P{X0=i} para toda i.

Cadenas de Markov Ejemplos: Comportamiento (sube/baja) del precio de las acciones hoy depende de lo ocurrido ayer Problema de la ruina de un jugador de casino

Otro ejemplo(Hillier&Liebermann):

Ecuaciones de Chapman-Kolmogorov Casos especiales: Si m=1 Si m=n-1

La matriz de transición a n pasos se puede obtener de la siguiente manera:

En el ejemplo de inventarios visto inicialmente encuentre : Dado que se tiene una cámara al final de una semana, la probabilidad de que no haya cámaras en inventario dos semanas después Dado que se tienen dos cámaras al final de una semana, la probabilidad de que haya tres cámaras en el almacén dos semanas después. Dado que queda una cámara al final de una semana, la probabilidad de que no hayan cámaras en inventario 4 semanas más tarde.

Un caso práctico: Un estudio realizado por el INEC: Proyecto de matrices de transición laboral

Pregunta del estudio: ¿cuántas personas trabajan en su establecimiento?

Probabilidades incondicionales del estado Las probabilidades de transición de uno o n pasos son probabilidades condicionales. Si se desea la probabilidad incondicional P{Xn}=j, es necesario especificar la distribución de probabilidad del estado inicial, o sea P{X0=i}, para i=0, 1, … ,M. Entonces P{Xn=j}=P{X0=0}p0j(n)+P{X0=1}p1j(n)+…+P{X0=M}pMj(n)

En el ejemplo de inventarios, se supuso que se tenían tres unidades en inventario. Encuentre la probabilidad incondicional de que hayan tres cámaras en inventario dos semanas después de que el sistema se puso en marcha.

Clasificación de estados de una cadena de Markov Los estados de las cadenas de Markov, se clasifican de acuerdo a las propiedades de sus probabilidades de transición. Se dice que el estado j es accesible desde el estado i si pij(n)>0, para alguna n ≥0. Se dice que los estados i y j se comunican, si el estado j es accesible desde el estado i y el estado i es accesible desde el estado j.

De manera general Cualquier estado se comunica consigo mismo Si el estado i se comunica con el estado j, entonces el estado j se comunica con el estado i. Si el estado i se comunica con el estado j y el estado j se comunica con el estado k, entonces el estado i se comunica con el estado k.

Como consecuencia de estas propiedades de comunicación, se puede hacer una partición del espacio de estados en clases ajenas, en las cuales, dos estados que se comunican pertenecen a una misma clase. Si existe solo una clase, es decir todos los estados se comunican, se dice que la cadena de Markov es irreducible.

Ejemplos:

Encuentre las clases ajenas en el ejemplo de acciones y en el ejemplo de la ruina del jugador de casino.

Un estado se llama transitorio si, después de haber entrado a este estado, el proceso nunca regresa a él, es decir un estado es transitorio si y solo si existe un estado j (j≠i) que es accesible desde el estado i, pero no viceversa, esto es, el estado i no es accesible desde el estado j. Se dice que un estado es recurrente si, después de haber entrado a este estado, el proceso definitivamente regresará a ese estado. Un estado es recurrente si y solo si no es transitorio.

Un tipo especial de estado recurrente es aquel estado al cual el proceso una vez que entró en él nunca saldrá de este estado, este tipo de estado se dice absorbente. Por lo tanto, el estado i es absorbente si y solo si pii=1 La recurrencia es una propiedad de clase, es decir, todos los estados de una clase son recurrentes o transitorios.

El periodo de un estado i se define como el entero t (t>1) si pii(n)=0 para todos los valores de n distintos de t, 2t, 3t, … y t es el entero más grande con esta propiedad.

Propiedades a largo plazo de las cadenas de Markov Existe una probabilidad límite de que el sistema se encuentre en el estado j después de un número grande de transiciones, y esta propiedad es independiente del estado inicial. Para una cadena de Markov irreducible ergódica

Donde las πj satisfacen de manera única las siguientes ecuaciones de estado estable: Los valores πj reciben el nombre de probabilidades de estado estable.

Cadenas de Markov Problema del Ratón: Un ratón cambia de habitación cada minuto con igual probabilidad a las salas adyacentes, se asume que inicialmente está en la entrada Sala Entrada Habitación Cocina

Matriz de probabilidades de transición : 0 1/3 1/3 1/3 1/2 0 1/2 0 1/3 1/3 0 1/3 P = S E C H S E C H

S E H C 1/2 1/3

Tiempos de primera pasada Con mucha frecuencia es importante poder hacer afirmaciones en términos de probabilidad sobre el número de transiciones que hace el proceso al ir del estado i al estado j por primera vez. Este lapso recibe el nombre de tiempo de primera pasada al ir del estado i al estado j. Cuando j=i, este tiempo de primera pasada se denomina tiempo de recurrencia para el estado i.

Tiempo esperado de primera pasada

satisface de manera única la ecuación Siempre que satisface de manera única la ecuación La cual da origen a un sistema de ecuaciones. Cuando i=j, los tiempos de recurrencia, se obtienen utilizando las probabilidades de estado estable. Así,

Buscamos µ13, para esto planteamos el siguiente sistema de ecuaciones: Calcular el tiempo esperado hasta que el ratón ingrese a la habitación por primera vez, dado que inicialmente se encuentra en la entrada. Si S=0, E=1, C=2 y H=3 Buscamos µ13, para esto planteamos el siguiente sistema de ecuaciones: Así dado que queremos averiguar µ13 debemos resolver el sistema

Resolviendo el sistema se tiene Es decir: Resolviendo el sistema se tiene

Las probabilidades de estado estable son: Por tanto los tiempos medios de recurrencia son: