La descarga está en progreso. Por favor, espere

La descarga está en progreso. Por favor, espere

UNIDAD II ANALISIS DE DECISIONES

Presentaciones similares


Presentación del tema: "UNIDAD II ANALISIS DE DECISIONES"— Transcripción de la presentación:

1 UNIDAD II ANALISIS DE DECISIONES
“Teoría de la Probabilidad” M.A. Erika Straffon Del Castillo

2 PROBABILIDAD OBJETIVA Y SUBJETIVA
La probabilidad objetiva encierra dos interpretaciones de probabilidad: 1.- La simetría de resultados, implica que los resultados idénticos en los aspectos esenciales deben tener la misma probabilidad. Por ejemplo: Una moneda que tiene ambos lados idénticos (exceptuando los signos de cara y cruz). Por lo tanto existe la misma probabilidad de que caiga una cara como la otra teniendo una probabilidad del 50%. 2.- La interpretación subjetiva: No existe información histórica y, en lugar de la evidencia objetiva, la base para la asignación de probabilidades sería la experiencia personal. Este tipo de probabilidades, son las decisiones empresariales debido a que no se cuenta con suficiente información objetiva. Un ejemplo claro es cuando el Director General debería expandir su negocio, sin embargo depende en gran medida de que se presente una devaluación en los próximos años. La devaluación es una razón subjetiva que evaluará el Director General.

3 SUCESOS MUTUAMENTES EXCLUYENTES Ejemplo
ENUNCIADOS DE PROBABILIDAD Existen dos enunciados básicos de la probabilidad: 1.- La suma de las probabilidades de todos los resultados posibles de un ensayo debe ser igual a uno. 2.- Las probabilidades siempre son mayores o iguales a cero (esto es que, las probabilidades nunca son negativas) y son menores o iguales a uno. Cuanto menor es la probabilidades menos posible es el suceso. SUCESOS MUTUAMENTES EXCLUYENTES Dos o más sucesos son mutuamente excluyentes si solo puede ocurrir uno de ellos en un ensayo. Se pueden sumar las probabilidades de los sucesos mutuamente excluyentes para obtener la probabilidad de que ocurra uno de los sucesos de un conjunto dado de sucesos. Ejemplo En una carrera de 100 metros, la probabilidad de que la corredora de USA llegue en 1er lugar, es 0.48, en tanto que la probabilidad de que la corredora de Nigeria es de En tanto que la probabilidad de que ambas lleguen en 1er lugar es cero. Corredora USA 0.48 Corredora Nigeriana 0.52 1.00

4 SUCESOS INDEPENDIENTES
Si dos sucesos son independientes (estadísticamente), la ocurrencia de un suceso no afecta la probabilidad de que ocurra el segundo. De tal suerte de que probabilidad de que ocurran dos o más es igual al producto de las probabilidades de los sucesos individuales. Esto quiere decir: P(A y B) = P(A) * P(B) si A,B son independientes Donde: P(A y B)= Probabilidad de que ocurran los sucesos A y B P(A)= Probabilidad de un suceso A P(B)= Probabilidad de un suceso B La anterior ecuación significa que; la probabilidad de que ocurran A y B es igual a la probabilidad de A multiplicada por la probabilidad de B, si A y B son independientes. Si A es la probabilidad de que caiga cara la primera vez que se lanza una moneda y B es la probabilidad de que caiga cara en el segunda lanzamiento entonces: P(A)= ½ P(B)= ½ P(A y B)= ½ * ½ = 1/4

5 SUCESOS DEPENDIENTES Dos sucesos son dependientes si la ocurrencia de uno de ellos afecta la probabilidad de ocurrencia del segundo. Por ejemplo: De una caja con dos pelotas rojas y una negra se deben sacar dos sin devolución. El segundo evento ya no es más independiente con respecto al primero porque al sacar las primeras el contenido de la caja ha cambiado. Por tanto: R: se ha sacado una pelota roja. N: se ha sacado una pelota negra. Queremos analizar primeramente el conjunto solución de los intentos dependientes. Numeremos ambas pelotas rojas como R1 y R2. Se puede sacar entonces dos veces los siguientes resultados: Ω* = {(R1; R2), (R1; S), (R2; R1), (R2; S), (S; R1), (S; R2)} Queremos analizar primeramente el conjunto solución de los intentos dependientes. Enumeremos ambas pelotas rojas así R1 y R2. Se puede obtener los siguientes resultados: Ω tiene en total 6 soluciones. Definimos el evento A:primero se saca una pelota roja (R), luego una pelota negra (N), entonces: A = R(1) ∧ S(2). Hay en Ω* dos soluciones que pertenecen a A, entonces la probabilidad es

6 PROBABILIDAD CONDICIONAL, MARGINAL Y CONJUNTA
La probabilidad condicional se refiere a que si A y B son dos eventos S, la probabilidad de que ocurra A dado que ocurrió el evento B es la probabilidad condicional de A dado B. dado que: La probabilidad conjunta de A y B es igual a la probabilidad condicional de B dado A, multiplicada por la probabilidad de A. El término marginal se refiere a que las probabilidades se encuentran en los márgenes de una tabla de probabilidades conjuntas; suman uno. P(A y B) = P(B|A) *P(A) P(A y B) = P(B|A) * P(A)

7 ESTRUCTURA DE UN ARBOL DE DECISION ARBOL DE DECISION
VALOR ESPERADO Es considerado la media de la distribución de probabilidad y se calcula con la siguiente fórmula: ESTRUCTURA DE UN ARBOL DE DECISION Los árboles de decisión están formados por: *Ramas: se representan con líneas. * Nodos de decisión: de ellos salen las ramas de decisión y se representan con  *Nodos de incertidumbre: de ellos salen las ramas de los eventos y se representan con  ARBOL DE DECISION Pueden usarse como una herramienta para desarrollar una estrategia óptima cuando el decisor tiene que elegir entre: a).- Una serie de alternativas de decisión b).- Incertidumbre o eventos futuros con riesgo Es importante mencionar que un buen análisis de decisiones incluye un análisis de riesgo.

8 Evento 1 P(Evento 1) Pago 1 Alternativa 1 Evento 2 Pago 2 P(Evento 2)
Punto de decisión Ejemplo: El análisis del riesgo ayuda al tomador de decisiones a identificar, cuál será el valor esperado de una alternativa de decisión VS el resultado que podría pasar. La variancia se calcula como: Donde P(Xj) es la probabilidad del evento Xj y E(X) es el valor esperado de X

9 Función de utilidad u (x1) = p u (x*) + (1 – p) u(x°)
TEORIA DE DECISIÓN, UTILIDAD COMO BASE PARA LA TOMA DE DECISIONES El valor monetario esperado es un parámetro útil cuando las cantidades que se esperan son muy altas o la decisión es repentina, en cambio la utilidad es el grado de satisfacción que se obtiene ante un cierto resultado. Por lo anterior, las decisiones se toman para maximizar la utilidad esperada, en lugar del valor monetario esperado. Esto hace que se busque seleccionar la alternativa que brinde la mayor utilidad. Los procesos de decisión se clasifican de acuerdo según el grado de conocimiento que se tenga sobre variables no controladas por el decisor y que pueden tener influencia sobre el resultado final Certidumbre: cuando se conoce con certeza su estado, es decir, cada acción conduce invariablemente a un resultado bien definido. Riesgo: cuando cada decisión puede dar lugar a una serie de consecuencias a las que puede asignarse una distribución de probabilidad conocida. Incertidumbre: cuando cada decisión puede dar lugar a una serie de consecuencias a las que no puede asignarse una distribución de probabilidad, bien porque sea desconocida o porque no tenga sentido hablar de ella. Función de utilidad u (x1) = p u (x*) + (1 – p) u(x°) X1 = n eventos p= probabilidad de ocurrencia x* = la mejor alternativa x°= la peor alternativa

10 TABLA DE DECISION Muchos procesos de toma de decisiones pueden ser tratados por medio de tablas de decisión, en las que se representan los elementos característicos de estos problemas: Los diferentes estados que puede presentar la naturaleza: e1, e2, ..., en. Las acciones o alternativas entre las que seleccionará el decisor: a1, a2,...,am. Las consecuencias o resultados xij de la elección de la alternativa ai cuando la naturaleza presenta el estado ej. Se supone, por simplicidad, la existencia de un número finito de estados y alternativas. El formato general de una tabla de decisión es el siguiente:

11 DISTRIBUCION DE PROBABILIDAD NORMAL
media σ Desviación estándar DISTRIBUCION DE PROBABILIDAD NORMAL La distribución normal es también conocida como distribución Gauss. Este tipo de distribución tiene una función de densidad de probabilidad que es una curva suave , simétrica, continua, en forma de campana. El área que se muestra bajo la curva, en cualquier intervalo del eje horizontal, representa la probabilidad de que la variable aleatoria X, tome un valor dentro del intervalo. El área bajo la curva suma 1. La distribución normal se determina por su media (µ), La desviación estándar (σ), las cuales una vez conociéndolas, se estable la forma y ubicación de la distribución. La curva alcanza su máximo en la media. Entre mayor sea la desviación estándar (σ), la curva es más extendida. Función de densidad de probabilidad normal con parámetros µ y σ : Función de distribución normal acumulada es:

12 Z = X - µ σ DISTRIBUCION DE PROBABILIDA POR MUESTREO
Colas a la izquierda y la derecha El símbolo FN se usa para representar una función de distribución acumulada de una distribución de probabilidad normal. Es el área debajo de la cola izquierda de una función de densidad normal de probabilidad. Para su cálculo de aplica la siguiente fórmula: FN (b) = P (X ≤ b) Mientras que para el cálculo del lado derecho, el símbolo es GN y la fórmula sería: GN (b) = P (X ≤ b) Variable normal estandarizada Una distribución normal con µ = 0 (media de cero) y σ = 1 (desviación estándar). Si la distribución normal tiene una media distinta a cero y una desviación estándar diferente a 1, es posible estandarizar la distribución estándar. Esto permite buscar las probabilidades normales en una tabla relativamente pequeña. Para estandarizar, es necesario definir una nueva variable, la que nombraremos Z, como a continuación se muestra. DISTRIBUCION DE PROBABILIDA POR MUESTREO Este tipo de análisis utilizarán cinco distribuciones de probabilidad: 1.- La distribución de la población, donde σp = desviación estándar y µ = media. Esta distribución refleja las características de los componentes individuales de la población de las cuales se extrae la muestra. Z = X - µ σ

13 2. - Distribución de la muestra
2.- Distribución de la muestra. Se refiere a que tomará una muestra aleatoria de n elementos, para realizar una distribución de frecuencias, de los elementos de la muestra. 3.- Distribución de las medias de las muestras. De una población e pueden obtener muchas muestras aleatorias, cada una de las cuales tendrá un media Si se consideran todas las muestras posibles es en si una variable aleatoria y tiene una distribución de probabilidad con una media E ( ) y desviación estándar σ. 4.- Distribución a priori de la media de la población. Antes de tomar una muestra existe una distribución a priori de la media de la población, se trata de una distribución de probabilidad subjetiva del decisor. 5.- Distribución a posteriori de la media de la población. se actualiza después de tomar la muestra para obtener una distribución a posteriori con , la media, y σ1, la desviación estándar. Si la distribución a priori es normal y de las medias muestrales también es normal, será normal la distribución a posteriori. TEORIA DE JUEGOS Se refiere a las decisiones con incertidumbre considerandos dos o más oponentes inteligentes donde cada oponente espera a optimizar su propia decisión, pero a costa de los otros. Ejemplo: Desarrollar campañas publicitarias para productos competitivos y planear tácticas destinadas a los bandos contendientes. La teoría de juegos, define al oponente como jugador. Cada jugar tiene un número de elecciones finito o infinito, llamadas estrategias. Los resultados o pagos de un juego se resumen como funciones de las diferentes estrategias para cada jugador. Un jugador con dos jugadores , donde la ganancia de un jugador es igual a la pérdida de otro, se conoce como un juego de dos personas y suma cero.

14 Para la teoría de juegos se emplea una matriz en la que los renglones representan acciones posibles, y sus columnas estados futuros posibles del sistema. Asociado a cada acción y cada estado futuro esta un resultado que evalúa la ganancia (o pérdida) resultante de tomar tal acción cuando ocurre un estado futuro dado. Por lo anterior, si ai, representa la i-enésima acción (i = 1, 2, …,n), entonces v(ai, ɵj) representará el estado respectivo. En general v(ai, ɵj) puede ser una función continua de ai y ɵj . En condiciones discretas, esta información se dispone como se muestra en la siguiente matriz, la cual representa la base para desarrollar el criterio para decisiones con incertidumbre. ɵ1 ɵ2 ɵn a1 v(a1, ɵ1) v(a1, ɵ2) v(a1, ɵn) a2 v(a2, ɵ1) v(a2, ɵ2) v(a2, ɵn) . am v(am, ɵ1) v(am, ɵ2) v(am, ɵn) Referencias bibliográficas Bierman, Bonini y Hausman (1994). Análisis cuantitativo para la toma de decisiones. Wilmington, Delaware: Addison-Wesley Iberoamericana. Taha, Hamdy A. (2004) Investigación de operaciones. México: Alfaomega


Descargar ppt "UNIDAD II ANALISIS DE DECISIONES"

Presentaciones similares


Anuncios Google