La descarga está en progreso. Por favor, espere

La descarga está en progreso. Por favor, espere

Introducción Las cadenas de markov son modelos probabilísticos que se usan para predecir la evolución y el comportamiento a corto y a largo plazo de determinados.

Presentaciones similares


Presentación del tema: "Introducción Las cadenas de markov son modelos probabilísticos que se usan para predecir la evolución y el comportamiento a corto y a largo plazo de determinados."— Transcripción de la presentación:

1 Introducción Las cadenas de markov son modelos probabilísticos que se usan para predecir la evolución y el comportamiento a corto y a largo plazo de determinados sistemas. Ejemplos: reparto del mercado entre marcas; dinámica de las averías de máquinas para decidir política de mantenimiento; evolución de una enfermedad,…

2 1. Definición de Cadena de Markov Una Cadena de Markov (CM) es: Un proceso estocástico Con un número finito de estados (M) Con probabilidades de transición estacionarias Que tiene la propiedad markoviana 1

3 Un conjunto finito de M estados, exhaustivos y mutuamente excluyentes (ejemplo: estados de la enfermedad) Ciclo de markov (paso) : periodo de tiempo que sirve de base para examinar las transiciones entre estados (ejemplo, un mes) Probabilidades de transición entre estados, en un ciclo (matriz P) Distribución inicial del sistema entre los M estados posibles ELEMENTOS DE UNA CADENA DE MARKOV 2

4 CONCEPTO DE CADENAS ABSORBENTES Cadenas absorbentes Una cadena de Markov con espacio de estados finito se dice absorbente si se cumplen las dos condiciones siguientes: 1. La cadena tiene al menos un estado absorbente. 2. De cualquier estado no absorbente se accede a algún estado absorbente. Si denotamos como A al conjunto de todos los estados absorbentes y a su complemento como D, tenemos los siguientes resultados: Su matriz de transición siempre se puede llevar a una de la forma donde la submatriz Q corresponde a los estados del conjunto D, I es la matriz identidad, 0 es la matriz nula y R alguna submatriz. no importa en donde se encuentre la cadena, eventualmente terminará en un estado absorbente. 3

5 Comportamiento a largo plazo de las Cadenas de Markov: el caso de las cadenas absorbentes 4 CM absorbente:CM absorbente: –Tiene al menos un estado absorbente –Desde cualquier estado no absorbente se puede acceder a algún estado absorbente A largo plazo, termina en absorción con probabilidad 1A largo plazo, termina en absorción con probabilidad 1 Interesa calcular:Interesa calcular: –Probabilidad de absorción por cada estado absorbente –Numero esperado de pasos antes de la absorción

6 Comportamiento a largo plazo de las Cadenas de Markov: el caso de las cadenas absorbentes 5

7 (n) Podemos considerar f ij (n) para (n=1,2,..) como la función de probabilidad de la variable aleatoria tiempo de primera pasada Una vez que el proceso se encuentra en el estado i no lo abandona Una vez que el proceso se encuentra en el estado i existe una prob.>0 de no regresar Tipos de estados y Cadenas de Markov 6

8 CADENAS ABSORBENTES VEAMOS UNA CADENA ABSORBENTE DE MARKOV:VEAMOS UNA CADENA ABSORBENTE DE MARKOV: SI COMENZAMOS EN UN ESTADO TRANSITORIO ENTONCES AL FINAL TENDREMOS LA SEGURIDAD DE DEJAR EL ESTADO TRANSITORIO Y TERMINAR EN UNO DE LOS ESTADOS ABSORBENTES.SI COMENZAMOS EN UN ESTADO TRANSITORIO ENTONCES AL FINAL TENDREMOS LA SEGURIDAD DE DEJAR EL ESTADO TRANSITORIO Y TERMINAR EN UNO DE LOS ESTADOS ABSORBENTES. PARA VER POR QUE NOS INTERESAN LAS CADENAS ABSORBENTES, DESCRIBIREMOS LAS SOGUIENTES DOS:PARA VER POR QUE NOS INTERESAN LAS CADENAS ABSORBENTES, DESCRIBIREMOS LAS SOGUIENTES DOS: 7

9 EJEMPLO: Cuenta por cobrar. El estado cuenta por cobrar en una empresa se modela con frecuencia como cadena de markov. Suponga que una empresa supone que una cuenta es incobrable si se ha pasado mas de tres meses de su fecha de vencimiento. Entonces al principio de cada mes, se puede clasificar cada cuenta en uno de los siguientes estados específicos. Estado 1.cuenta nuevas. Estado 2. Los pagos e la cuenta están retraso un mes. Estado 3. Los pago de la cuenta están retrasado por dos meses. Estado 4. Los pago de la cuenta están retrasado por tres meses. Estado 5. Se ha saldado la cuenta. Estado 6.SE ha cancelado la cuenta por ser mal pagador. Supóngase que los últimos gastos indican que la siguiente cadena de markov describe como cambia el estado de una cuenta de un mes al siguiente.

10 Nueva1 mes2 meses3 mesespagada incobrales nuevas mes meses meses pagada incobrable Por ejemplo, si al principio de un mes una cuenta lleva dos meses de vencida hay 40% de probabilidad de que no se page al principio del mes siguiente y, por lo tanto, que tenga tres meses de retraso y una probabilidad de 60% de que paguen. Nueva1 mes2 meses3 mesespagada incobrales nuevas mes meses meses pagada incobrable000001

11 Q = R= I -Q = R1+R4 I- Q (-1)R

12 (.6)R2+R (-1)R3+R (-1/4)R R4+R / /4 (-1)R3+R2 R3/ / / /4

13 Para contestar las pregunta 1 a 3 necesitamos calcular R=0.50 I - Q -1 R = = (I-Q) -1 R = t 1 = Nueva a 1 pagada probabilidad de una cuenta nueva se pague es el elemento 1,1 de (I-Q) -1 R = t 2 = 1 mes a 2 incobrable la probabilidad que una cuenta atrasada un mes vuelva incobrable es el elemento 2,2 de (I-Q) -1 = de la respuesta 1 solo el 3.6% de toda las deuda son incobrable como las deuda totales del año son dólares en promedio -0.33( ) =43,200 dolares seran inpagable al año


Descargar ppt "Introducción Las cadenas de markov son modelos probabilísticos que se usan para predecir la evolución y el comportamiento a corto y a largo plazo de determinados."

Presentaciones similares


Anuncios Google