Investigación de Operaciones II UNIDAD 4. Cadenas de Markov
4.1.1. Introducción a las cadenas de Markov El análisis de Markov tuvo su origen en los estudios de A.A.Markov(1906-1907) sobre la secuencia de los experimentos conectados en cadena y los intentos de descubrir matemáticamente los fenómenos físicos conocidos como movimiento browiano. 4.1.1. Introducción a las cadenas de Markov
4.1.1. Introducción a las cadenas de Markov La teoría general de los procesos de Markov se desarrollo en las décadas de 1930 y 1940 por A.N.Kolmagoron, W.Feller, W.Doeblin, P.Levy, J.L.Doob y otros. El análisis de Markov es una forma de analizar el movimiento actual de alguna variable, a fin de pronosticar un movimiento futuro de la misma. 4.1.1. Introducción a las cadenas de Markov
4.1.1. Introducción a las cadenas de Markov ANÁLISIS DE MARKOV A fin de ilustrar el proceso de Markov presentamos un problema en el que los estados de actividades son marcas, y las probabilidades de transición expresan la probabilidad de que los consumidores vayan de una marca a otra. 4.1.1. Introducción a las cadenas de Markov
4.1.1. Introducción a las cadenas de Markov Supongamos que la muestra inicial de consumidores se compone de 1 000 participantes distribuidos entre cuatro marcas(A, B, C, D). Una suposición adicional es que la muestra representa a todo el grupo, desde el punto de vista de su lealtad a otras marcas y de sus formas de cambio de una marca a otra. 4.1.1. Introducción a las cadenas de Markov
4.1.1. Introducción a las cadenas de Markov Los consumidores cambian de una a otra marca debido a la publicidad, promociones especiales, precios, descontento, etc. 4.1.1. Introducción a las cadenas de Markov
4.1.1. Introducción a las cadenas de Markov En la siguiente tabla la mayor parte de los clientes que compraron inicialmente la marca A, siguieron con ella en el segundo período. Pero, la marca A ganó 50 clientes y perdió 45 clientes que en ese mismo período, se fueron con otras marcas. 4.1.1. Introducción a las cadenas de Markov
4.1.1. Introducción a las cadenas de Markov
4.1.1. Introducción a las cadenas de Markov Esta tabla no muestra la historia completa, sino que necesita un análisis detallado con respecto a la proporción de ganancias y perdidas netas entre las cuatro marcas. 4.1.1. Introducción a las cadenas de Markov
4.1.1. Introducción a las cadenas de Markov Sin esa clase de análisis, no sabemos cuantos clientes perdió cada marca para explicar la ganancia de 50 clientes de la marca A, y cuántos de los 45 clientes que perdió la marca A se ganaron por cada una de las demás. 4.1.1. Introducción a las cadenas de Markov
4.1.1. Introducción a las cadenas de Markov Es necesario calcular las probabilidades de transición para las cuatro marcas. Las probabilidades de transición se definen como la probabilidad de que determinada marca, conserve sus clientes. 4.1.1. Introducción a las cadenas de Markov
4.1.1. Introducción a las cadenas de Markov Para determinar lo anterior, se divide el numero de clientes retenidos entre en numero de clientes en el periodo inicial. En nuestro ejemplo, la marca A perdió 45 clientes y retuvo 175 (220- 45=175) 4.1.1. Introducción a las cadenas de Markov
4.1.1. Introducción a las cadenas de Markov Para determinar el factor de probabilidad, los clientes retenidos en el período que se examina (175), se dividen entre el número de clientes que habían al principio del período (220), o sea: 175/220 lo que nos da 0.796 para la marca A 4.1.1. Introducción a las cadenas de Markov
4.1.1. Introducción a las cadenas de Markov Realizamos el mismo procedimiento para cada una de las otras marcas, obteniendo: B=(300-70)/300= 230/300=0.767 C=(230-25)/230= 205/230=0.891 D=(250-35)/250= 215/250=0.860 4.1.1. Introducción a las cadenas de Markov
4.1.1. Introducción a las cadenas de Markov Para aquellos clientes que cambiaron de marcas , es necesario mostrar las perdidas y ganancias entre las marcas a fin de completar las matriz de probabilidades de transición. 4.1.1. Introducción a las cadenas de Markov
Marca Clte P1 Ganancias de A B C D Pérdidas de A B C D ClteP2 220 40 10 20 15 225 B 300 25 5 290 C 230 D 250 255 1000
4.1.1. Introducción a las cadenas de Markov Los datos de esa índole requieren una información estadística exacta, y no sólo es posible observar la ganancia o pérdida neta de cualquier marca, sino todas las interrelaciones entre las pérdidas y ganancias de clientes para cada marca. 4.1.1. Introducción a las cadenas de Markov
4.1.1. Introducción a las cadenas de Markov La marca A adquiere la mayor parte de sus clientes de la marca B, pero pierde muchos de ellos de la misma marca. Un análisis más inteligente de los hechos se obtienen con la segunda tabla y no con la primera. 4.1.1. Introducción a las cadenas de Markov
4.1.1. Introducción a las cadenas de Markov En la segunda tabla, los ceros de las diagonales significan que una marca no puede tener pérdidas y ganancias por sí misma. Además, las columnas de pérdidas son transposiciones de las ganancias de los renglones. 4.1.1. Introducción a las cadenas de Markov
4.1.1. Introducción a las cadenas de Markov De acuerdo con los datos desarrollados, el paso siguiente consiste en convertir el cambio de marcas de los clientes de modo que todas las perdidas y ganancias tomen forma de probabilidades de transición, obteniendo la matriz de probabilidad de transición. 4.1.1. Introducción a las cadenas de Markov
4.1.1. Introducción a las cadenas de Markov Una forma conveniente para facilitar los cálculos matemáticos, es el empleo de la matriz de probabilidades de transición, con las probabilidades calculadas a tres cifras decimales. 4.1.1. Introducción a las cadenas de Markov
4.1.1. Introducción a las cadenas de Markov Matriz de probabilidades de transición 4.1.1. Introducción a las cadenas de Markov
4.1.1. Introducción a las cadenas de Markov Los renglones de la matriz muestran la retención de los clientes, y la ganancia de los mismos, mientras que las columnas muestran la retención de clientes y su pérdida. 4.1.1. Introducción a las cadenas de Markov
4.1.1. Introducción a las cadenas de Markov La primera matriz está en términos del número actual de clientes, mientras que la segunda se expresa en términos de probabilidades de transición. Es importante señalar que esas probabilidades son aplicables a todos los clientes, porque se trata de una muestra representativa de 1000 clientes. 4.1.1. Introducción a las cadenas de Markov
4.1.1. Introducción a las cadenas de Markov La siguiente tabla nos explica la matriz de transición final. 4.1.1. Introducción a las cadenas de Markov
4.1.1. Introducción a las cadenas de Markov La lectura de esta información sería la siguiente. Analizando el renglón 1: La marca A retiene 0.796 de sus clientes, mientras que gana: 0.133 de los clientes de B, 0.400 de los clientes de D y 0 de los clientes de C. 4.1.1. Introducción a las cadenas de Markov
4.1.1. Introducción a las cadenas de Markov Analizando la columna 1: La marca A retiene 0.796 de sus clientes, mientras que pierde: 0.091 de sus clientes a favor de B, 0.046 de los clientes a favor de D y 0.067 de los clientes a favor de C. 4.1.1. Introducción a las cadenas de Markov
4.1.1. Introducción a las cadenas de Markov La administración de mercadotecnia puede obtener varias ventajas si utiliza los datos que muestra la matriz, que puede ayudarla a analizar sus esfuerzos de promoción en términos del efecto que tenga en las pérdidas o ganancias de su participación en el mercado. 4.1.1. Introducción a las cadenas de Markov
4.1.1. Introducción a las cadenas de Markov Esos datos pueden pronosticar la proporción en que una marca aumentará o disminuirá su futura participación en el mercado y puede mostrar la posibilidad de que en el futuro ocurra algún equilibrio en el mercado. 4.1.1. Introducción a las cadenas de Markov