INVESTIGACIÓN OPERATIVA

Slides:



Advertisements
Presentaciones similares
Introducción Las cadenas de markov son modelos probabilísticos que se usan para predecir la evolución y el comportamiento a corto y a largo plazo de determinados.
Advertisements

Tema 7: Probabilidad 1. Introducción. 2. Variables aleatorias.
Procesos estocásticos 1
Investigación de Operaciones
PLANIFICACIÓN Y CONTROL DE LA PRODUCCIÓN
El tiempo de vida Todos los seguros de vida dependen fundamentalmente del tiempo de vida del asegurado. Por ello, la medición del riesgo debe comenzar.
Alumna: Mayra Isabel Zurita Rivera
Investigación de Operaciones
INSTITUTO TECNOLOGICO DE VILLAHERMOSA
Instituto Tecnológico
INSTITUTO TECNOLÒGICO UNIDAD IV CADENAS DE MARKOV
UNIDAD 2 CARRERA: ALUMNO: CATEDRATICO:
Instituto tecnológico de Villahermosa
Ingeniería en Ciencias Económicas y Financieras
Ingeniería Matemática
Ingeniería en Ciencias Económicas y Financieras
Hugo Jimenez Miguel Galicia Manuel Wiechers. Introducción No solo considera el edo. del proceso en el instante t El costo puede depender de más variables.
Karen Junieth Zeledón Urrutia
Medidas de Desempeño Teoría de Colas
Sesión 12: Procesos de Decisión de Markov
Tema 4: Cadenas de Markov
MODELOS DETERMINÍSTICOS VS MODELOS ESTOCÁSTICOS
Cadenas de Markov de Tiempo Discreto
E Experimentos aleatorios. Espacio muestral
Proceso estocástico Cadena de Markov Estado Transición
TEORIA DE COLAS Integrantes: Luis Sibaja Edgar Castro Oscar Hurtado
Clase 10: Estructuras de datos y arreglos.
Capítulo 9 Modelos de Espera
Sesión 6: Campos de Markov
Sesión 12: Procesos de Decisión de Markov. Incertidumbre - MDP, L.E. Sucar2 Procesos de Decisión de Markov Procesos de Decisión Secuenciales Procesos.
Probabilidad. Variables aleatorias.
Bioinformática: Fundamentos y aplicaciones de actualidad Curso de verano 2005 Revisión de algunos modelos probabilísticos de evolución genética (Procesos.
Programación Dinámica
Control Estadístico de Procesos Introducción a la Probabilidad.
Ecuaciones de Chapman Kolmogorov
Investigación Experimental
Planificación de Procesos
DISTRIBUCIÓN BINOMIAL
Administración y dirección de empresas
1.Introducción a la Estadística 2.Descripción de los conjuntos de datos 3.Uso de la Estadística para sintetizar conjuntos de datos 4.Probabilidad 5.Variables.
Medidas de Posición y Centralización Estadística E.S.O.
Raúl Monroy (de las notas de Jane Hilston)
Los Inventarios ÍNDICE 1.1. Introducción
Transformaciones básicas de series
Capítulo 1. Conceptos básicos de la Estadística
1 Problemas de decisión Tipo particular de problemas de optimización Sistemas que evolucionan con el tiempo Se toman decisiones en momentos sucesivos de.
Econometría Procesos Estocásticos Capitulo IV
Procesos Estocásticos Edgar H Criollo V Mayo 2010
ESTADISTICA II PARTE PRIMERA: PROBABILIDAD Y VARIABLES ALEATORIAS
8. Distribuciones continuas
Villahermosa, Tab. 21 septiembre MATERIA: Investigacion de operaciones TEMA: Lineas de espera ALUMNOS: Maria isabel vega chanona HORA: 11:00 am a.
FUNDAMENTOS DE MARKETING
Unidad 2:Lineas de espera 2
2.1 DEFINICIONES LINEAS DE ESPERA, CARACTERISTICAS Y SUPOSICIONES
Conceptos básicos de Contabilidad de Costos
Investigación de Operaciones 2
Cadenas De Markov.
Procesos de Nacimiento y Muerte
2.1 DEFINICIONES CARACTERÍSTICAS Y SUPOSICIONES.
Metodología de la programación
Alumno: Hebert Rangel Gutierrez Matricula: Tutor: Leonardo Olmedo Asignatura: Estadistica Descriptiva Licenciatura en Tecnologías de la Información.
Inferencia Estadística Conceptos Previos. Conceptos Previos Población: Es la colección de toda la posible información que caracteriza a un fenómeno aleatorio.
Concepto de Probabilidad
UNIDAD II LINEAS DE ESPERA
Villahermosa, Tab. 24 noviembre del 2010 ING. INDUSTRIAL INVESTIGACIÓN DE OPERACIONES II CATEDRATICO: Zinath Javier Gerónimo UNIDAD 4 CADENAS DE MARKOV.
Tema 4: Variables aleatorias discretas La distribución binomial
Definición. Una Cola es una línea de espera y la teoría de colas es una colección de modelos matemáticos que describen sistemas de líneas de espera particulares.
Pedro Godoy G.. Distribuciones de probabilidad: Estudiaremos a continuación algunas distribuciones de probabilidad de variables aleatorias importantes.
Programa de Matemática Sede San Joaquín FUNCION EXPONENCIAL.
UNIVERSIDAD INSURGENTES
Transcripción de la presentación:

INVESTIGACIÓN OPERATIVA TEMA 3 Introducción a las cadenas de Markov de primer orden Definición de cadenas de Markov Tipos de estados y de cadenas de Markov. Propiedades Comportamiento a largo plazo de cadenas de Markov. Aplicaciones Comportamiento a corto plazo de cadenas de Markov. Tiempos y probabilidades del primer paso El caso particular de las cadenas absorbentes. Aplicaciones Estudio de casos reales de aplicación. Los procesos de markov en los análisis coste-efectividad Beatriz Gonzalez Lopez-Valcarcel

Introducción Las cadenas de markov son modelos probabilísticos que se usan para predecir la evolución y el comportamiento a corto y a largo plazo de determinados sistemas. Ejemplos: reparto del mercado entre marcas; dinámica de las averías de máquinas para decidir política de mantenimiento; evolución de una enfermedad,… Beatriz Gonzalez Lopez-Valcarcel

1. Definición de Cadena de Markov Una Cadena de Markov (CM) es: Un proceso estocástico Con un número finito de estados (M) Con probabilidades de transición estacionarias Que tiene la propiedad markoviana Beatriz Gonzalez Lopez-Valcarcel

• El proceso puede ser de tiempo discreto o continuo si G es Proceso estocástico: 1 • Es un conjunto o sucesión de variables aleatorias: {X(t)CG } definidas en un mismo espacio de probabilidad. • Normalmente el índice t representa un tiempo y X(t) el estado del proceso estocástico en el instante t. • El proceso puede ser de tiempo discreto o continuo si G es discreto o continuo. • Si el proceso es de tiempo discreto, usamos enteros para representar el índice: {X1, X2, ...} Beatriz Gonzalez Lopez-Valcarcel

Ejemplos de procesos estocásticos: 1 Serie mensual de ventas de un producto Estado de una máquina al final de cada semana (funciona/averiada) Nº de clientes esperando en una cola cada 30 segundos Marca de detergente que compra un consumidor cada vez que hace la compra. Se supone que existen 7 marcas diferentes Nº de unidades en almacén al finalizar la semana Beatriz Gonzalez Lopez-Valcarcel

ELEMENTOS DE UNA CADENA 1 ELEMENTOS DE UNA CADENA DE MARKOV Un conjunto finito de M estados, exhaustivos y mutuamente excluyentes (ejemplo: estados de la enfermedad) Ciclo de markov (“paso”) : periodo de tiempo que sirve de base para examinar las transiciones entre estados (ejemplo, un mes) Probabilidades de transición entre estados, en un ciclo (matriz P) Distribución inicial del sistema entre los M estados posibles

PROPIEDAD MARKOVIANA 1 Un proceso estocástico tiene la propiedad markoviana si las probabilidades de transición en un paso sólo dependen del estado del sistema en el período anterior (memoria limitada)

PROPIEDAD MARKOVIANA 1 P(n) es la matriz de transición en n pasos, de orden (M+1)x(M+1)

PROPIEDAD MARKOVIANA 1

PROPIEDAD MARKOVIANA 1

Tipos de modelos de Markov: 1 LAS CADENAS DE MARKOV SON UN CASO PARTICULAR DE MODELOS DE MARKOV Tipos de modelos de Markov: Procesos de Markov (Modelos semi-markovianos): Las probabilidades de transición entre estados pueden variar a medida que transcurren más ciclos Ejemplo: para modelizar la esperanza de vida, el riesgo de muerte aumenta con la edad Cadenas de Markov: Las probabilidades de transición se suponen constantes a lo largo del tiempo

PROPIEDAD MARKOVIANA 1 Ejemplos: Comportamiento (sube/baja) del precio de las acciones hoy depende de lo ocurrido ayer Problema de la ruina de un jugador de casino Elección de marca: Con qué línea aérea volar a Madrid?

Ejercicio 1: Tres agencias de viaje disponen de información respecto de los desplazamientos en vacaciones de semana santa. Estado futuro n=1 Estado actual n=0 No viajar V. entre islas V. fuera No viajar 40 20 40 V. entre islas 50 10 40 V. fuera 10 70 20 Supuestos necesarios para considerar esta situación como cadena de Markov de primer orden Calcular la probabilidad de que los clientes que no han viajado estas vacaciones lo hagan fuera de las islas dentro de 2 años. 1

1 Ejercicio 2: La carrera de diplomado en CCEE tiene 3 cursos. A partir de los datos facilitados por el decanato del centro se sabe que el 35% y el 26% de los alumnos de primero y segundo abandonarán los estudios. El 28% de los alumnos de primero repiten curso, siendo este porcentaje del 20% y 30% para los alumnos de segundo y tercero respectivamente.

EJEMPLO 1: EL REPARTO DEL MERCADO A LARGO PLAZO EN UN OLIGOPOLIO Tres laboratorios farmacéuticos (A,B y C) que compiten en un principio activo (mismo conjunto homogéneo en la orden de precios de referencia). Hoy sus cuotas de mercado son 30%, 20% y 50% respectivamente Las filas suman 1 Matriz de transición en un paso (ciclo) ¿Cómo se repartirán el mercado dentro de 1 mes, 6 meses, 1 año?, ¿A largo plazo? Ciclo: Mes

1 EJEMPLO 2: LA EVOLUCIÓN CLÍNICA DE LOS PACIENTES CON VÁLVULA CARDIACA SOMETIDOS A TRATAMIENTO ANTICOAGULANTE CON SECUELAS BIEN MUERTO 3 estados (1 absorbente, 2 transitorios) Ciclo=mes Utilidades = Nivel salud Distribución inicial de la cohorte (N=10.000): todos bien

1 EJEMPLO 2: LA EVOLUCIÓN CLÍNICA DE LOS PACIENTES CON VÁLVULA CARDIACA SOMETIDOS A TRATAMIENTO ANTICOAGULANTE CON SECUELAS BIEN MUERTO 3 estados (1 absorbente, 2 transitorios) Ciclo=mes Utilidades = Nivel salud Distribución inicial de la cohorte (N=10.000): todos bien

1 EJEMPLO 2: LA EVOLUCIÓN CLÍNICA DE LOS PACIENTES CON VÁLVULA CARDIACA SOMETIDOS A TRATAMIENTO ANTICOAGULANTE 0.6 0.6 CON SECUELAS BIEN 0.2 0.2 MUERTO 3 estados (1 absorbente, 2 transitorios) Ciclo=mes Utilidades = Nivel salud Distribución inicial de la cohorte (N=10.000): todos bien

Matriz de transición en un ciclo (P) 1 EJEMPLO 1: EL REPARTO DEL MERCADO A LARGO PLAZO EN UN OLIGOPOLIO Tres laboratorios farmacéuticos (A,B y C) que compiten en un principio activo (mismo conjunto homogéneo en la orden de precios de referencia). Hoy sus cuotas de mercado son 30%, 20% y 50% respectivamente Las filas suman 1 Matriz de transición en un ciclo (P) ¿Cómo se repartirán el mercado dentro de 1 mes, 6 meses, 1 año?, ¿A largo plazo? Ciclo: Mes

EJEMPLO 1: EL REPARTO DEL MERCADO A LARGO PLAZO EN UN OLIGOPOLIO Este es un ejemplo de cadena de Markov irreductible y ergódica. Todos los estados son recurrentes y están comunicados entre sí, formando una sola clase.Hay solución de estado estable (reparto del mercado a largo plazo, independiente de la situación inicial) Reparto del mercado después de n ciclos = P0*Pn 1 mes.....P1= [0.3350 0.2540 0.4110] 2 meses ....p2 =[ 0.3595 0.2911 0.3494] 6 meses ...... p6 =[ 0.4030 0.3543 0.2427] 1 año ....... p12 = [ 0.4150 0.3704 0.2146] 2 años ...... p24 =[ 0.4165 0.3722 0.2113] 3 años ....... p36 =[ 0.4165 0.3722 0.21131] Solución de estado estable

EJEMPLO 3: EL HÁBITO TABÁQUICO 1 EJEMPLO 3: EL HÁBITO TABÁQUICO DE LOS JÓVENES 5 estados (1 transitorio, 4 recurrentes) Ciclo= un año Distribución inicial de la cohorte (N=1.340): (0.58 0.28 0.05 0.03 0.06)

Tipos de estados y de cadenas de markov de primer orden 2 Para clasificar los estados y las CM tenemos que definir algunos conceptos: Tiempos del primer paso y de recurrencia Accesibilidad y comunicación entre estados

Tiempos del primer paso/recurrencia (Corto plazo) 2 Con lo visto hasta el momento podemos calcular la probabilidad, dado que el proceso se encuentra en el estado i, de que el proceso se encuentre en el estado j después de n periodos Pij(n).

2 EJEMPLO: Un vendedor de cámaras fotográficas lleva acabo la siguiente política de inventario. Mantiene durante la semana de trabajo hasta un máximo de 3 cámaras en el almacén para su venta. Si al final de la semana le quedan en el almacén alguna cámara entonces no pide ninguna al fabricante. De partida en el almacén hay 3 cámaras (x0=3). Comenta el contenido de la matriz de transición P facilitada por el comercio. Sabiendo que hay dos cámaras al final de la primera semana (x1=2), (x2=1), (x3=0), (x4=3) y (x5=1). Obtener el tiempo de primera pasada para ir del estado 3 al 1, y el tiempo de recurrencia del estado 3.

fij(2)=pij(2)-fij(1)pij ............................................. Tiempos de primera pasada/recurrencia (Corto plazo) 2 En general podemos considerar a los tiempos de primera pasada como variables aleatorias, por tanto con una distribución de probabilidad asociada a ellos. Dichas distribuciones de probabilidad dependerán de las probabilidades de transición del proceso. fij(1)=pij(1)=pij fij(2)=pij(2)-fij(1)pij ............................................. fij(n)=pij(n)-fij(1)pij(n-1)-fij(2)pij(n-2)....-fij(n-1)pij

Tiempos de primera pasada/recurrencia (Corto plazo) 2 Como generalmente es bastante engorroso calcular las fij(n) para todas las n, se suele optar por obtener el tiempo esperado de primera pasada del estado i al estado j

Tipos de estados y Cadenas de Markov 2 Podemos considerar fij(n) para (n=1,2,..) como la función de probabilidad de la variable aleatoria tiempo de primera pasada Una vez que el proceso se encuentra en el estado i no lo abandona  (n) Una vez que el proceso se encuentra en el estado i existe una prob.>0 de no regresar  (n)

2 Ejemplo Identifica los distintos estados en la siguiente matriz de transición.

Tipos de estados y Cadenas de Markov 2

Tipos de estados y Cadenas de Markov 2

Tipos de estados y Cadenas de Markov. 2

Tipos de estados y Cadenas de Markov. 2

Comportamiento a largo plazo de las Cadenas de Markov 3

Comportamiento a largo plazo de las Cadenas de Markov 2

Comportamiento a largo plazo de las Cadenas de Markov: el caso de las cadenas absorbentes 4 CM absorbente: Tiene al menos un estado absorbente Desde cualquier estado no absorbente se puede acceder a algún estado absorbente A largo plazo, termina en absorción con probabilidad 1 Interesa calcular: Probabilidad de absorción por cada estado absorbente Numero esperado de pasos antes de la absorción

Comportamiento a largo plazo de las Cadenas de Markov: el caso de las cadenas absorbentes 4

Propiedad markoviana: falta de memoria (¿Realista?...) EJEMPLOS DE APLICACIONES CÓMO HACER EL MODELO REALISTA Propiedad markoviana: falta de memoria (¿Realista?...) Ingredientes de una cadena de markov: Conjunto de K estados exhaustivos y mutuamente excluyentes definen las posibles situaciones (ej. Bien-discapacitado-muerto) Ciclo: periodo de tiempo en el que ocurren transiciones entre estados (ej: un mes) Probabilidades de transición entre estados en un ciclo Se suponen constantes en el tiempo, e idénticas para todos los pacientes Sus valores forman la matriz de transición en un paso (P) Distribución inicial de la cohorte de pacientes entre los K estados

CON SECUELAS BIEN MUERTO EJEMPLO 1: LA EVOLUCIÓN CLÍNICA DE LOS PACIENTES CON VÁLVULA CARDIACA SOMETIDOS A TRATAMIENTO ANTICOAGULANTE Complicando el modelo para hacerlo más realista CON SECUELAS BIEN MUERTO Se incluye un estado transitorio de proceso agudo (embolia o hemorragia interna)

CON SECUELAS BIEN MUERTO EJEMPLO 1: LA EVOLUCIÓN CLÍNICA DE LOS PACIENTES CON VÁLVULA CARDIACA SOMETIDOS A TRATAMIENTO ANTICOAGULANTE Complicando el modelo para hacerlo más realista ACCIDENTE CEREBRAL VASCULAR CON SECUELAS BIEN MUERTO Estado transitorio ACV: para un suceso que tiene solo efectos a corto plazo Dos usos: Incorporar un valor específico de la utilidad (o coste) Asignar temporalmente diferentes probabilidades de transición

Ingredientes de una cadena de markov: CONCEPTOS BÁSICOS Esta limitación generalmente puede resolverse definiendo estados distintos para pacientes con distintos antecedentes Ingredientes de una cadena de markov: Conjunto de K estados exhaustivos y mutuamente excluyentes definen las posibles situaciones (ej. Bien-discapacitado-muerto) Ciclo: periodo de tiempo en el que ocurren transiciones entre estados (ej: un mes) Probabilidades de transición entre estados en un ciclo Se suponen constantes en el tiempo, e idénticas para todos los pacientes Sus valores forman la matriz de transición en un paso (P) Distribución inicial de la cohorte de pacientes entre los K estados

Software y bibliografía Usaremos QSB Un excelente texto para este tema es el de Hillier y Lieberman (está referenciado en el programa)