Descargar la presentación
La descarga está en progreso. Por favor, espere
1
Investigación de Operaciones II
UNIDAD 4. Cadenas de Markov
2
4.1.1. Introducción a las cadenas de Markov
El análisis de Markov tuvo su origen en los estudios de A.A.Markov( ) sobre la secuencia de los experimentos conectados en cadena y los intentos de descubrir matemáticamente los fenómenos físicos conocidos como movimiento browiano. Introducción a las cadenas de Markov
3
4.1.1. Introducción a las cadenas de Markov
La teoría general de los procesos de Markov se desarrollo en las décadas de y 1940 por A.N.Kolmagoron, W.Feller, W.Doeblin, P.Levy, J.L.Doob y otros. El análisis de Markov es una forma de analizar el movimiento actual de alguna variable, a fin de pronosticar un movimiento futuro de la misma. Introducción a las cadenas de Markov
4
4.1.1. Introducción a las cadenas de Markov
ANÁLISIS DE MARKOV A fin de ilustrar el proceso de Markov presentamos un problema en el que los estados de actividades son marcas, y las probabilidades de transición expresan la probabilidad de que los consumidores vayan de una marca a otra. Introducción a las cadenas de Markov
5
4.1.1. Introducción a las cadenas de Markov
Supongamos que la muestra inicial de consumidores se compone de participantes distribuidos entre cuatro marcas(A, B, C, D). Una suposición adicional es que la muestra representa a todo el grupo, desde el punto de vista de su lealtad a otras marcas y de sus formas de cambio de una marca a otra. Introducción a las cadenas de Markov
6
4.1.1. Introducción a las cadenas de Markov
Los consumidores cambian de una a otra marca debido a la publicidad, promociones especiales, precios, descontento, etc. Introducción a las cadenas de Markov
7
4.1.1. Introducción a las cadenas de Markov
En la siguiente tabla la mayor parte de los clientes que compraron inicialmente la marca A, siguieron con ella en el segundo período. Pero, la marca A ganó 50 clientes y perdió 45 clientes que en ese mismo período, se fueron con otras marcas. Introducción a las cadenas de Markov
8
4.1.1. Introducción a las cadenas de Markov
9
4.1.1. Introducción a las cadenas de Markov
Esta tabla no muestra la historia completa, sino que necesita un análisis detallado con respecto a la proporción de ganancias y perdidas netas entre las cuatro marcas. Introducción a las cadenas de Markov
10
4.1.1. Introducción a las cadenas de Markov
Sin esa clase de análisis, no sabemos cuantos clientes perdió cada marca para explicar la ganancia de 50 clientes de la marca A, y cuántos de los 45 clientes que perdió la marca A se ganaron por cada una de las demás. Introducción a las cadenas de Markov
11
4.1.1. Introducción a las cadenas de Markov
Es necesario calcular las probabilidades de transición para las cuatro marcas. Las probabilidades de transición se definen como la probabilidad de que determinada marca, conserve sus clientes. Introducción a las cadenas de Markov
12
4.1.1. Introducción a las cadenas de Markov
Para determinar lo anterior, se divide el numero de clientes retenidos entre en numero de clientes en el periodo inicial. En nuestro ejemplo, la marca A perdió 45 clientes y retuvo 175 ( =175) Introducción a las cadenas de Markov
13
4.1.1. Introducción a las cadenas de Markov
Para determinar el factor de probabilidad, los clientes retenidos en el período que se examina (175), se dividen entre el número de clientes que habían al principio del período (220), o sea: 175/220 lo que nos da para la marca A Introducción a las cadenas de Markov
14
4.1.1. Introducción a las cadenas de Markov
Realizamos el mismo procedimiento para cada una de las otras marcas, obteniendo: B=(300-70)/300= 230/300=0.767 C=(230-25)/230= 205/230=0.891 D=(250-35)/250= 215/250=0.860 Introducción a las cadenas de Markov
15
4.1.1. Introducción a las cadenas de Markov
Para aquellos clientes que cambiaron de marcas , es necesario mostrar las perdidas y ganancias entre las marcas a fin de completar las matriz de probabilidades de transición. Introducción a las cadenas de Markov
16
Marca Clte P1 Ganancias de A B C D Pérdidas de A B C D ClteP2
220 40 10 20 15 225 B 300 25 5 290 C 230 D 250 255 1000
17
4.1.1. Introducción a las cadenas de Markov
Los datos de esa índole requieren una información estadística exacta, y no sólo es posible observar la ganancia o pérdida neta de cualquier marca, sino todas las interrelaciones entre las pérdidas y ganancias de clientes para cada marca. Introducción a las cadenas de Markov
18
4.1.1. Introducción a las cadenas de Markov
La marca A adquiere la mayor parte de sus clientes de la marca B, pero pierde muchos de ellos de la misma marca. Un análisis más inteligente de los hechos se obtienen con la segunda tabla y no con la primera. Introducción a las cadenas de Markov
19
4.1.1. Introducción a las cadenas de Markov
En la segunda tabla, los ceros de las diagonales significan que una marca no puede tener pérdidas y ganancias por sí misma. Además, las columnas de pérdidas son transposiciones de las ganancias de los renglones. Introducción a las cadenas de Markov
20
4.1.1. Introducción a las cadenas de Markov
De acuerdo con los datos desarrollados, el paso siguiente consiste en convertir el cambio de marcas de los clientes de modo que todas las perdidas y ganancias tomen forma de probabilidades de transición, obteniendo la matriz de probabilidad de transición. Introducción a las cadenas de Markov
21
4.1.1. Introducción a las cadenas de Markov
Una forma conveniente para facilitar los cálculos matemáticos, es el empleo de la matriz de probabilidades de transición, con las probabilidades calculadas a tres cifras decimales. Introducción a las cadenas de Markov
22
4.1.1. Introducción a las cadenas de Markov
Matriz de probabilidades de transición Introducción a las cadenas de Markov
23
4.1.1. Introducción a las cadenas de Markov
Los renglones de la matriz muestran la retención de los clientes, y la ganancia de los mismos, mientras que las columnas muestran la retención de clientes y su pérdida. Introducción a las cadenas de Markov
24
4.1.1. Introducción a las cadenas de Markov
La primera matriz está en términos del número actual de clientes, mientras que la segunda se expresa en términos de probabilidades de transición. Es importante señalar que esas probabilidades son aplicables a todos los clientes, porque se trata de una muestra representativa de 1000 clientes. Introducción a las cadenas de Markov
25
4.1.1. Introducción a las cadenas de Markov
La siguiente tabla nos explica la matriz de transición final. Introducción a las cadenas de Markov
26
4.1.1. Introducción a las cadenas de Markov
La lectura de esta información sería la siguiente. Analizando el renglón 1: La marca A retiene de sus clientes, mientras que gana: 0.133 de los clientes de B, 0.400 de los clientes de D y 0 de los clientes de C. Introducción a las cadenas de Markov
27
4.1.1. Introducción a las cadenas de Markov
Analizando la columna 1: La marca A retiene de sus clientes, mientras que pierde: 0.091 de sus clientes a favor de B, 0.046 de los clientes a favor de D y 0.067 de los clientes a favor de C. Introducción a las cadenas de Markov
28
4.1.1. Introducción a las cadenas de Markov
La administración de mercadotecnia puede obtener varias ventajas si utiliza los datos que muestra la matriz, que puede ayudarla a analizar sus esfuerzos de promoción en términos del efecto que tenga en las pérdidas o ganancias de su participación en el mercado. Introducción a las cadenas de Markov
29
4.1.1. Introducción a las cadenas de Markov
Esos datos pueden pronosticar la proporción en que una marca aumentará o disminuirá su futura participación en el mercado y puede mostrar la posibilidad de que en el futuro ocurra algún equilibrio en el mercado. Introducción a las cadenas de Markov
Presentaciones similares
© 2024 SlidePlayer.es Inc.
All rights reserved.