Investigación de Operaciones 2

Slides:



Advertisements
Presentaciones similares
INSTITUTO TECNOLÓGICO DE VILLAHERMOSA   MATERIA:
Advertisements

Teoría de Grafos I semestre 2009 UNIVERSIDAD NACIONAL DE INGENIERIA
Le propongo un juego….
comprobación de lectura
“GRAFOS” Chacón Zamora José Christian González García Andrea
Instituto Tecnológico
INSTITUTO TECNOLÒGICO UNIDAD IV CADENAS DE MARKOV
Ingeniería en Ciencias Económicas y Financieras
Ingeniería Matemática
Ingeniería en Ciencias Económicas y Financieras
Tema 1: Programación dinámica
Son problemas secuenciales: El problema se puede dividir en etapas. Definición: Método que permite determinar de manera eficiente las decisiones que optimizan.
Introducción a la probabilidad
KRIGING.
2. INTRODUCCION A LA TEORIA DE LA PROBABILIDAD
METODO SIMPLEX El método Simplex es un procedimiento iterativo que permite ir mejorando la solución a cada paso. El proceso concluye cuando no es posible.
Instituto San Lorenzo Departamento de Matemática Probabilidades.
TIPOS DE EXPERIMENTOS:
Unidad 4 Conceptos de sistema
Tema 4: Cadenas de Markov
Facultad de Ingeniería Manufactura Integrada Por Computador II
TRANSFORMACIONES LINEALES PARA REDES NEURALES ARTIFICIALES
Informática empresarial
MODELOS DETERMINÍSTICOS VS MODELOS ESTOCÁSTICOS
Cadenas de Markov de Tiempo Discreto
E Experimentos aleatorios. Espacio muestral
Proceso estocástico Cadena de Markov Estado Transición
Estructura de Datos II Equipo 4 Equipo 7 Acosta Montiel Miguel A.
Capítulo 9 Modelos de Espera
Sesión 6: Campos de Markov
DISTRIBUCION DE PROBABILIDADES
Bioinformática: Fundamentos y aplicaciones de actualidad Curso de verano 2005 Revisión de algunos modelos probabilísticos de evolución genética (Procesos.
Cap. 2 – Movimiento en Una Dimension
ESTADISTICA. Liney Niño Carvajal Astrid Viviana Montaña Bello.
Control Estadístico de Procesos Introducción a la Probabilidad.
Distribuciones de probabilidad

Ecuaciones de Chapman Kolmogorov
Teoría de Colas.
Raúl Monroy (de las notas de Jane Hilston)
Teoría de Trafico en Redes
Teoría Cinética. Mecánica Estadística Lunes 11 de junio de 2007.
Líneas de Espera: Teoría de Colas
INVESTIGACIÓN OPERATIVA
Procesos Estocásticos Edgar H Criollo V Mayo 2010
ESTADISTICA II PARTE PRIMERA: PROBABILIDAD Y VARIABLES ALEATORIAS
8. Distribuciones continuas
INTRODUCCIÓN A LA PROBABILIDAD
Un panorama de conceptos probabilísticos
DIAGRAMA DE FLECHAS O RUTA CRITICA
Probabilidades Históricamente, el propósito original de la teoría de probabilidades se limitaba a la descripción y estudios de juegos de azar. Girolamo.
Unidad II. Probabilidad
Cadenas De Markov.
Modelos ocultos de Markov (HMM)
Unidad IV Cadenas de Markov
MATRICES.
Procesos de Nacimiento y Muerte
2.1 DEFINICIONES CARACTERÍSTICAS Y SUPOSICIONES.
¿QUE ES EL DIAGRAMA DE ESTADO ?
Alicia De Gyves López Licenciatura Tecnologías de la Información y Comunicación 3º. Cuatrimestre Estadística Descriptiva Distribuciones de Probabilidad.
TEMA: DECISIONES BAJO RIESGO –TEORIA DE JUEGOS Ing. Larry D. Concha B.
Matrices Pág. 1. Matrices Pág. 2 Se llama matriz traspuesta de A, y se representa por A t a la matriz que resulta de intercambiar las filas y las columnas.
Matemáticas, juego,...fortuna: ¿Jugamos?
Probabilidad: Es la medida de incertidumbre de la ocurrencia de un suceso Experimento Determinístico: Es aquel que podemos predecir su ocurrencia. Ej.
Concepto de Probabilidad
UNIDAD II LINEAS DE ESPERA
Apuntes Matemáticas 1º ESO
Villahermosa, Tab. 24 noviembre del 2010 ING. INDUSTRIAL INVESTIGACIÓN DE OPERACIONES II CATEDRATICO: Zinath Javier Gerónimo UNIDAD 4 CADENAS DE MARKOV.
Estadística y probabilidad
Tarea # 1. Una variable es un símbolo que actúa en las funciones, las fórmulas, los algoritmos y las proposiciones de las matemáticas y la estadística.
Transcripción de la presentación:

Investigación de Operaciones 2 Cadenas de Markov Investigación de Operaciones 2

Cadenas de Markov “Cuando, conociendo el pasado y el presente, el comportamiento probabilístico del futuro inmediato sólo depende del estado presente”

Cadena de Markov En honor al matemático ruso Andrei Andreyevich Markov, 1856 - 1922

Cadenas de Markov Las cadenas de Markov y los procesos de Markov son un tipo especial de procesos estocásticos que poseen la siguiente propiedad: Propiedad de Markov: Conocido el estado del proceso en un momento dado, su comportamiento futuro no depende del pasado. Dicho de otro modo, “dado el presente, el futuro es independiente del pasado”

Definiciones de las Cadenas de Markov Las cadenas de Markov son una herramienta para analizar el comportamiento de determinados procesos estocásticos, estos procesos evolucionan de forma determinística a lo largo del tiempo en torno a un conjunto de estados. En las cadenas de Markov la cual la probabilidad de que ocurra un evento depende del evento inmediato anterior. En efecto, las cadenas de este tipo tienen memoria. " Recuerdan" el último evento y esto condiciona las posibilidades de los eventos futuros. Esta dependencia del evento anterior distingue a las cadenas de Markov de las series de eventos independientes, como tirar una moneda al aire o un dado.

Glosario Pruebas del proceso: eventos que disparan transiciones de un estado a otro.  En muchas aplicaciones, periodos de tiempo sucesivos. Probabilidad de transición: dado que el sistema está en estado i durante un periodo, la probabilidad de transición pijes la probabilidad de que el sistema este en el estado j durante el siguiente periodo. Probabilidad de estado: es la probabilidad de que el sistema esté en cualquier estado particular. Probabilidad de estado estable: La probabilidad de que el sistema esté en cualquier estado particular después de un número elevado de transiciones.  Una vez  alcanzado este estado la probabilidad de estado no cambia de un periodo a otro. Estado de absorción: se da cuando la probabilidad de que ocurra una transición de este estado es cero.  Por lo que una vez que el sistema a hecho una transición a un estado de absorción, quedará ahí. Matriz fundamental: Matriz necesaria para el cómputo de probabilidades asociadas con el estado de absorción de un proceso de Markov.

….definiciones Es una serie de eventos, en la cual la probabilidad de que ocurra un evento depende del evento inmediato anterior. En efecto, las cadenas de este tipo tienen memoria. “ Recuerdan” el último evento y esto condiciona las posibilidades de los eventos futuros. Esta dependencia del evento anterior distingue a las cadenas de Markov de las series de eventos independientes, como tirar una moneda al aire o un dado.

Una cadena de Markov es una secuencia X1, X2, X3, … de variables aleatorias. El rango de estas variables, es llamado espacio estado o transición de estados, el valor de Xn es el estado del proceso en el tiempo n. Si la distribución de probabilidad condicional de Xn+1 en estados pasados es una función de Xn por sí sola

Diagrama de transición de estados El diagrama de transición de estados (DTE) de una CM es un grafo dirigido cuyos nodos son los estados de la CM y cuyos arcos se etiquetan con la probabilidad de transición entre los estados que unen. Si dicha probabilidad es nula, no se pone arco. qij i j

Probabilidades de Transición pi,j(n) = la probabilidad de que el proceso, estando en el estado i en el tiempo n, pase al estado j en el instante siguiente Cuando pi,j(n) = pi,j (esto es, no depende de n) se dice que las probabilidades de transición son estacionarias. Lo supondremos de ahora en adelante.

Matriz de Transición para todo i Las probabilidades de transición definen la matriz P = [pij] que satisface pij  0 para todo i, j 2) para todo i

Matriz de Transición: ejemplo Las filas deben de sumar 1 Tiempo n+1 Estado 0 Estado 1 Estado 2 Estado 3 0,20 0,65 0,15 Tiempo n Etado 1 0,60 0,40 0,30 1 .

Ejemplo: línea telefónica (matriz transiciones) Sea una línea telefónica de estados ocupado=1 y desocupado=0. Si en el instante t está ocupada, en el instante t+1 estará ocupada con probabilidad 0,7 y desocupada con probabilidad 0,3. Si en el instante t está desocupada, en el t+1 estará ocupada con probabilidad 0,1 y desocupada con probabilidad 0,9.

Ejemplo: línea telefónica 0,1 0,9 0,7 1 0,3

Ejemplo 2: Matriz de transiciones El nivel de negocio de la Bolsa puede considerarse cada día alto (A) o bajo (B). Para un periodo de 5300 días se dispone de la secuencia BAABBA..., y que nos permite representar la alternancia mediante el cuadro adjunto: B A 3077 543 588 1092 B A 0.85 0.15 0.35 0.65 3077 ÷ (3077 + 543)

Ejemplo 2: juego aleatorio En el tiempo 0 tengo Q2 y en los tiempos 1,2,3,... participo en un juego en el que apuesto Q1. Gano el juego (y gano Q1) con probabilidad p y lo pierdo (perdiendo lo apostado) con probabilidad 1-p. Mi meta es aumentar mi capital hasta Q4 y tan pronto lo logre me salgo del juego. También salgo cuando me arruine (capital Q0).

Ejemplo 2 (cont) - Xn : mi capital inmediatamente después del juego n - Estados del proceso = {0,1,2,3,4} - Matriz de transición:

Ejemplo 3: un modelo para el desplazamiento poblacional Para efectos de una investigación, en un determinado país, una familia puede clasificarse como habitante de zona urbana, rural o suburbana. Se ha estimado que durante un año cualquiera, el 15% de todas las familias urbanas se cambian a zona suburbana y el 5% a zona rural. El 6% de las familias suburbanas pasan a zona urbana y el 4% a zona rural. El 4% de las familias rurales pasan a zona urbana y el 6% a zona suburbana.

Cadenas de Markov: ejemplo 3 Tendremos la siguiente matriz de transición Urbana Suburbana. Rural.

Cadenas de Markov Urb Surb. Rural 0,05 0,90 0,8 0,90 0,04 0,15 0,06

Ejemplo 4 Según el cuento, en la Tierra de Oz Nunca hay dos días buenos en sucesión. Después de un día con buen tiempo, le Sigue (con igual probabilidad) un día con lluvia o nieve. Del mismo modo, si nieva (o llueve), el día siguiente nevará (o lloverá) con probabilidad 1/2, pero si cambia el tiempo sólo la mitad de las veces será un lindo día.

Como quedarían las probabilidades ? De un buen día a un buen día BB = 0 De un buen día a un día lluvioso BL = ½ De un buen día a un día con nieve BN = ½ De un día lluvioso a un día lluvioso LL = ½ De un día lluvioso a un buen LB= ¼ De un día lluvioso a un día con nieve LN = ¼ De un día con nieve a un día con nieve NN = ¼ De un día con nieve a un día con lluvia NL = ¼ De un día con nieve a un buen día NB = ½

B L N ½ ¼

Ejemplo 5 Un ratón cambia de habitáculo cada minuto con igual probabilidad a las salas adyacentes Salón 1 Entrada Habitación 2 Cocina 3 4

Matriz de probabilidades de transición : 0 1/3 1/3 1/3 1/2 0 1/2 0 1/3 1/3 0 1/3 P =

1/2 S E 1/2 1/3 1/3 H C

Hoja de trabajo La peatonal de mi pueblo tiene 6 cuadras de largo, que van de norte a sur. Estoy con ganas de deambular y pasar el tiempo, y como tengo una moneda, se me ocurre tirarla y caminar una cuadra hacia el norte si sale cara o una cuadra hacia el sur si sale escudo. Y continúo este juego hasta salir de la peatonal, ya sea hacia el norte o hacia el sur.

Los estados en una Cadena de Markov

Tipos de Estados Estados Absorbentes Estados Transitorios Los estados que pueden sucederse a sí mismos y, además, es posible alcanzar, por lo menos, alguno de los restantes desde ellos se llaman estados transitorios. Estados Absorbentes Un estado tal que si el proceso entra en él permanecerá indefinidamente en este estado (ya que las probabilidades de pasar a cualquiera de los otros son cero), se dice estado absorbente.

3 estados (1 absorbente, 2 transitorios) 0.6 0.6 0.2 CON SECUELAS BIEN MUERTO 0.2 3 estados (1 absorbente, 2 transitorios)

S1 S2 1/2 Está claro que el sistema completo nunca estará completamente "atrapado" en un estado, así que la cadena es regular.

S1 S2 S3 3/4 1/4 1/2 Siempre es posible moverse de un estado a cualquier otro, en cualquier paso siendo los movimientos no‑cíclicos. Así la cadena y la matriz son regulares.

S1 S2 S3 ½ 1/4 1/3 Después de n pasos la cadena entrará (con probabilidad 1 cuando n tiende a ∞) en S2 o en S3. Una vez situada en uno de estos estados nunca podrá pasar a S1. Por lo tanto S1 es un estado transitorio y así la cadena es no regular y por lo tanto no‑ergódica, aunque el conjunto [ S2, S3 ] sea un conjunto ergódico.

S1 S2 S3 1 La cadena se mueve con período 3 a través de los conjunto cíclicos [ S1 ] [ S2 ] y [ S3 ]. Es por lo tanto una cadena cíclica ergódica y no una cadena regular.