La descarga está en progreso. Por favor, espere

La descarga está en progreso. Por favor, espere

MATERIA: INVESTIGACIÓN DE OPERACIONES 2 EQUIPO : EQUIP 4 CATEDRATICO: ZINATH JAVIER JERONIMO INTEGRANTES: Yesenia Contreras Magaña Widman Antonio Hernández.

Presentaciones similares


Presentación del tema: "MATERIA: INVESTIGACIÓN DE OPERACIONES 2 EQUIPO : EQUIP 4 CATEDRATICO: ZINATH JAVIER JERONIMO INTEGRANTES: Yesenia Contreras Magaña Widman Antonio Hernández."— Transcripción de la presentación:

1 MATERIA: INVESTIGACIÓN DE OPERACIONES 2 EQUIPO : EQUIP 4 CATEDRATICO: ZINATH JAVIER JERONIMO INTEGRANTES: Yesenia Contreras Magaña Widman Antonio Hernández Ovando Román Hernández Estrada Lucio Hernández Lázaro Josué Efraín Aguilar Guzmán Christian Méndez Ramírez Cesar Nahúm López León

2

3 Suponga que estudiamos una cadena de markov con matriz. P de probabilidad de transición conocida. Como todas las cadenas con las que trataremos son estacionarias, no nos importara identificar nuestras cadenas de markov como estacionarias. Una pregunta de interés es: si una cadena de markov está en el estado i en el tiempo m, ¿Cuál es la probabilidad que n periodos después de la cadena de markov este en el estado j? como se trata de una cadena de markov estacionaria, esta probabilidad será independiente de m y, por tanto, podemos escribir Donde Se llama probabilidad en la etapa n de una transición de estado i al estado j. Es claro que pn(1)=pn para determinar pn(2) nótese que si el sistema se encuentra hoy en el estado i. entonces para que el estado termine en el estado j dentro de 2 periodos, debemos pasar del estado i al estado k y después pasar del estado k al estado i (fig. 3) este modo de razonar nos permite escribir (Probabilidad de transición de i a k) (Probabilidad de transición de k a j) De acurdo con la definición de p. la matriz de transición de replanteamos la última ecuación en la siguiente forma:

4 El segundo miembro de la ecuación (3) es tan solo el producto escalar del renglón i de la matriz p por la columna j de esa matriz. Por lo tanto, es el es el elemento de la matriz generalizado este modo de razonar, se puede demostrar que para i 1 2 K s j Estado Tiempo 0 Tiempo 1 Tiempo 2 pn p12 P ik P is P n P 2j P ki P sj

5 Naturalmente, para En el ejem. 4 mostraremos el uso de la ecuación (4) EJEMPLO 4 ejemplo de cola suponga que toda la industria de refrescos produce dos colas. Cuando una persona ha comprado la cola 1, hay una probabilidad de 90% de que su siguiente compra sea de cola 1. Si una persona compro la cola 2, hay 80% de probabilidades que su próxima compra sea de cola si actualmente una persona es comprador de cola 2, ¿Cuál es la probabilidad que compre cola 1 pasadas 2 compras a partir de hoy? 2.- si en la actualidad una persona es comprador de cola 1, ¿cuál es la probabilidad que compre cola 1 pasadas 3 compras a partir de ahora? SOLUCION consideramos que las compras de cada una de las personas son una cadena de markov y que el estado en cualquier momento es del tipo de cola que compro la persona por última vez. Por lo tanto, las compras de cola por parte de cada una de las personas se pueden representar con una cadena de markov de dos estados, donde Estado 1= la persona acaba de comprar cola 1 Estado 2= la persona acaba de comprar cola 2 Si definimos como el tipo de cola que compra una persona en la compra futura (la compra actual =X0), entonces X0,…se puede describir como la cadena de markov con la siguiente matriz de transición:

6 Podemos contestar ahora las preguntas 1 y se busca Por lo tanto, esto significa que hay probabilidad.34 de que la persona 2 compre cola 1, después de 2 compras a partir de ahora. Con la teoría básica de probabilidad, podemos obtener esta respuesta siguiendo un camino distinto (fig. 4) nótese que =(probabilidad que la siguiente compra se a cola 1 y la segunda sea cola 1)+( probabilidad que la siguiente compra sea cola 2 y la segunda sea cola 1) 2.- buscamos Por lo tanto

7 Figura 4 probabilidad de que a dos periodos a partir de ahora, un comprador de cola 2 compre cola 1 es.20 (.90)+.80 (.20)=.34 Cola 2 Cola 1 Cola 2 Cola 1 Tiempo 0 Tiempo 2 Tiempo 1 P22 =.80 P21 =.20 Pn =.90P21 =.20

8 En muchos casos no conocemos el estado de la cadena de markov en el tiempo 0. Como se definió en la sección 19-3sea la probabilidad que la cadena este en el estado i en el tiempo 0 entonces podemos determinar la probabilidad de que el sistema este en el estado i en el tiempo n el siguiente razonamiento (fig.5) Figura 5 determinación de la probabilidad de estar en el estado j en el tiempo n cuando se desconoce el estado inicial i 1 2 s j q 1 q 2 q 1 q s P ij (n) P 2j (n) P ij (n) P sj (n) Tiempo 0 Tiempo n

9 Probabilidad de estar en el estado j en el tiempo n Donde para mostrar el uso de la ecuación (5) contestaremos la siguiente pregunta: supongamos que el 60% de toda la gente toma hoy cola 1 y el 40% cola 2. A tres compras a partir de ahora, ¿Qué fracción de los compradores estará tomando cola 1? =probabilidad de que a tres compras a partir de este momento una persona tome cola 1 La probabilidad que se busca es por lo tanto las tres compras de este momento el 64% de las personas estará comprando cola 1 Para mostrar el comportamiento de las probabilidades de transición en n etapas para grandes valores de n hemos calculado algunas de las probabilidades de transición de n etapas para el ejemplo de la cola y las mostramos en la tabla 2

10 Cuando n es grande, son casi constantes y tienden a 67. Esto quiere decir que para n grande independientemente del estado inicial hay una probabilidad de 67. De que una persona compre cola 1. Igualmente vemos para n grande tanto son casi constantes y tienden a.33 esto significa que para n grande, haciendo caso omiso del estado inicial hay una probabilidad.33 de que una persona sea comprador de cola 2. Tabla 2 probabilidades de transición en n etapas para el ejemplo de cola. nPn(n)P12P21P22(n)


Descargar ppt "MATERIA: INVESTIGACIÓN DE OPERACIONES 2 EQUIPO : EQUIP 4 CATEDRATICO: ZINATH JAVIER JERONIMO INTEGRANTES: Yesenia Contreras Magaña Widman Antonio Hernández."

Presentaciones similares


Anuncios Google