UNIDAD II ANALISIS DE DECISIONES

Slides:



Advertisements
Presentaciones similares
Bioestadística,2006.
Advertisements

CONTENIDOS Teoría del muestreo ¿Cómo seleccionar una muestra?
Toma de decisiones bajo condiciones de riesgo
INTRODUCCION Análisis de decisiones: Es una herramienta cuyo objetivo es ayudar en el estudio de la toma de decisiones en escenarios bajo incertidumbre.
Investigación de Operaciones
Matemáticas aplicadas a las CCSS II Ana Pola IES Avempace
INSTITUTO TECNOLÒGICO UNIDAD IV CADENAS DE MARKOV
Conocimiento de la escala de probabilidad
UNIDAD I MODELOS Y TOMA DE DECISIONES
UNIDAD I MODELOS Y TOMA DE DECISIONES
UNIDAD I MODELOS Y TOMA DE DECISIONES
UNIDAD II ANALISIS DE DECISIONES Diapositivas Unidad II M.A. Erika Straffon Del Castillo.
TEORÍA DE LA DECISIÓN BAJO INCERTIDUMBRE
Universidad de Chile Facultad de Ciencias Químicas y Farmacéuticas
PRUEBAS DE HIPOTESIS HIPOTESIS
1.2 Variables aleatorias..
Universidad Mexicana en Línea Carrera: Administración Pública Asignatura: Estadística Tutor: Leonardo Olmedo Alumno: Alfredo Camacho Cordero Matrícula:
PROBABILIDAD Y ESTADISTICA
TEORIA DE JUEGOS TEORIA DE JUEGOS
E Experimentos aleatorios. Espacio muestral
ADMINISTRACION DE NEGOCIOS IV
Teoría de la decisión.
ADMINISTRACION DE NEGOCIOS I
ANALISIS DE DATOS CATEGORICOS
VARIABLE ALEATORIA Y DISTRIBUCION DE PROBABILIDAD
Variables Aleatorias Unidimensionales
Probabilidad. Variables aleatorias.
Organización y Administración II Problemas Universo Indeterminado
Estadística Administrativa II
Teoría de Probabilidad
DISTRIBUCIONES DE MUESTREO
Unidad V: Estimación de
ESTIMACION En varios pasajes de este libro hemos planteado la dificultad que se confronta en las investigaciones, de llegar a conclusiones sobre una población.
Gerenciamiento Técnico de Proyectos
Valor que toma la variable aleatoria
TEORÍA DE LA DECISIÓN Claudia Stephanie Jiménez Zapata
DISTRIBUCION NORMAL Mario Briones L. MV, MSc 2005.
Simular: Representar una cosa, fingiendo o imitando lo que no es.
Función Densidad Continua (o distribución de probabilidad continua)
Tratamiento de datos y azar
Unidad II: Variables Aleatorias Concepto Discreta y Continua Fun. de densidad Fun. de probabilidad F. de distribución Esperanza y Varianza Propiedades.
Capítulo 1. Conceptos básicos de la Estadística
ESTADISTICA II PARTE PRIMERA: PROBABILIDAD Y VARIABLES ALEATORIAS
Un panorama de conceptos probabilísticos
Pruebas de hipótesis.
Herramientas avanzadas. Lo primero: abrir el modelo.
MÉTODOS DE ANÁLISIS EN LA TOMA DE DECISIONES EXISTEN PROCEDIMIENTOS DE ORDEN MATEMÁTICO, FINANCIERO, ECONÓMICO, ESTADÍSTICO ENTRE OTROS, PARA LA TOMA DE.
Unidad II. Probabilidad
Toma de decisiones en la empresa
Estimación y contraste de hipótesis
2.1 DEFINICIONES CARACTERÍSTICAS Y SUPOSICIONES.
Aplicaciones Estadísticas a las Finanzas Clase 1
Alicia De Gyves López Licenciatura Tecnologías de la Información y Comunicación 3º. Cuatrimestre Estadística Descriptiva Distribuciones de Probabilidad.
RIESGO, RENDIMIENTO Y VALOR
1 2  La Teoría de la Probabilidad constituye la base o fundamento de la Estadística, ya que las ingerencias que hagamos sobre la población o poblaciones.
UNIDAD II ANALISIS DE DECISIONES “Ejercicios 2” M.A. Erika Straffon Del Castillo.
TEMA: DECISIONES BAJO RIESGO –TEORIA DE JUEGOS Ing. Larry D. Concha B.
Distribuciones de Probabilidad
Inferencia Estadística Conceptos Previos. Conceptos Previos Población: Es la colección de toda la posible información que caracteriza a un fenómeno aleatorio.
INFERENCIA ESTADÍSTICA
Distribuciones de Probabilidad Discretas Las distribuciones discretas que se tratarán son: 1.Binomial 2.Multinomial 3.Hipergeométrica 4.Hipergeométrica.
Aplicaciones Estadísticas a las Finanzas Clase 1
7. Distribución normal Sin duda la distribución continua de probabilidad más importante, por la frecuencia con que se encuentra y por sus aplicaciones.
TAMAÑO DE LA MUESTRA. Para definir el tamaño de la muestra se debe tener en cuenta los recursos disponibles y las necesidades del plan de análisis, el.
Estimación Estadística Tares # 3. Estimación Estadística Conjunto de técnicas que permiten dar un valor aproximado de un parámetro de una población a.
Estimación estadística
TAMAÑO DE LA MUESTRA Alvaro Alfredo Bravo Dpto. de Matemáticas y Estadística Universidad de Nariño - Colombia.
Estadística y probabilidad
Viviana Acosta Estadística II. Que es Es una distribución de probabilidad que surge del problema de estimar la media de una población normalmente distribuida.
INTERVALO DE CONFIANZA
Transcripción de la presentación:

UNIDAD II ANALISIS DE DECISIONES “Teoría de la Probabilidad” M.A. Erika Straffon Del Castillo

PROBABILIDAD OBJETIVA Y SUBJETIVA La probabilidad objetiva encierra dos interpretaciones de probabilidad: 1.- La simetría de resultados, implica que los resultados idénticos en los aspectos esenciales deben tener la misma probabilidad. Por ejemplo: Una moneda que tiene ambos lados idénticos (exceptuando los signos de cara y cruz). Por lo tanto existe la misma probabilidad de que caiga una cara como la otra teniendo una probabilidad del 50%. 2.- La interpretación subjetiva: No existe información histórica y, en lugar de la evidencia objetiva, la base para la asignación de probabilidades sería la experiencia personal. Este tipo de probabilidades, son las decisiones empresariales debido a que no se cuenta con suficiente información objetiva. Un ejemplo claro es cuando el Director General debería expandir su negocio, sin embargo depende en gran medida de que se presente una devaluación en los próximos años. La devaluación es una razón subjetiva que evaluará el Director General.

SUCESOS MUTUAMENTES EXCLUYENTES Ejemplo ENUNCIADOS DE PROBABILIDAD Existen dos enunciados básicos de la probabilidad: 1.- La suma de las probabilidades de todos los resultados posibles de un ensayo debe ser igual a uno. 2.- Las probabilidades siempre son mayores o iguales a cero (esto es que, las probabilidades nunca son negativas) y son menores o iguales a uno. Cuanto menor es la probabilidades menos posible es el suceso. SUCESOS MUTUAMENTES EXCLUYENTES Dos o más sucesos son mutuamente excluyentes si solo puede ocurrir uno de ellos en un ensayo. Se pueden sumar las probabilidades de los sucesos mutuamente excluyentes para obtener la probabilidad de que ocurra uno de los sucesos de un conjunto dado de sucesos. Ejemplo En una carrera de 100 metros, la probabilidad de que la corredora de USA llegue en 1er lugar, es 0.48, en tanto que la probabilidad de que la corredora de Nigeria es de 0.52. En tanto que la probabilidad de que ambas lleguen en 1er lugar es cero. Corredora USA 0.48 Corredora Nigeriana 0.52 1.00

SUCESOS INDEPENDIENTES Si dos sucesos son independientes (estadísticamente), la ocurrencia de un suceso no afecta la probabilidad de que ocurra el segundo. De tal suerte de que probabilidad de que ocurran dos o más es igual al producto de las probabilidades de los sucesos individuales. Esto quiere decir: P(A y B) = P(A) * P(B) si A,B son independientes Donde: P(A y B)= Probabilidad de que ocurran los sucesos A y B P(A)= Probabilidad de un suceso A P(B)= Probabilidad de un suceso B La anterior ecuación significa que; la probabilidad de que ocurran A y B es igual a la probabilidad de A multiplicada por la probabilidad de B, si A y B son independientes. Si A es la probabilidad de que caiga cara la primera vez que se lanza una moneda y B es la probabilidad de que caiga cara en el segunda lanzamiento entonces: P(A)= ½ P(B)= ½ P(A y B)= ½ * ½ = 1/4

SUCESOS DEPENDIENTES Dos sucesos son dependientes si la ocurrencia de uno de ellos afecta la probabilidad de ocurrencia del segundo. Por ejemplo: De una caja con dos pelotas rojas y una negra se deben sacar dos sin devolución. El segundo evento ya no es más independiente con respecto al primero porque al sacar las primeras el contenido de la caja ha cambiado. Por tanto: R: se ha sacado una pelota roja. N: se ha sacado una pelota negra. Queremos analizar primeramente el conjunto solución de los intentos dependientes. Numeremos ambas pelotas rojas como R1 y R2. Se puede sacar entonces dos veces los siguientes resultados: Ω* = {(R1; R2), (R1; S), (R2; R1), (R2; S), (S; R1), (S; R2)} Queremos analizar primeramente el conjunto solución de los intentos dependientes. Enumeremos ambas pelotas rojas así R1 y R2. Se puede obtener los siguientes resultados: Ω tiene en total 6 soluciones. Definimos el evento A:primero se saca una pelota roja (R), luego una pelota negra (N), entonces: A = R(1) ∧ S(2). Hay en Ω* dos soluciones que pertenecen a A, entonces la probabilidad es

PROBABILIDAD CONDICIONAL, MARGINAL Y CONJUNTA La probabilidad condicional se refiere a que si A y B son dos eventos S, la probabilidad de que ocurra A dado que ocurrió el evento B es la probabilidad condicional de A dado B. dado que: La probabilidad conjunta de A y B es igual a la probabilidad condicional de B dado A, multiplicada por la probabilidad de A. El término marginal se refiere a que las probabilidades se encuentran en los márgenes de una tabla de probabilidades conjuntas; suman uno. P(A y B) = P(B|A) *P(A) P(A y B) = P(B|A) * P(A)

ESTRUCTURA DE UN ARBOL DE DECISION ARBOL DE DECISION VALOR ESPERADO Es considerado la media de la distribución de probabilidad y se calcula con la siguiente fórmula: ESTRUCTURA DE UN ARBOL DE DECISION Los árboles de decisión están formados por: *Ramas: se representan con líneas. * Nodos de decisión: de ellos salen las ramas de decisión y se representan con  *Nodos de incertidumbre: de ellos salen las ramas de los eventos y se representan con  ARBOL DE DECISION Pueden usarse como una herramienta para desarrollar una estrategia óptima cuando el decisor tiene que elegir entre: a).- Una serie de alternativas de decisión b).- Incertidumbre o eventos futuros con riesgo Es importante mencionar que un buen análisis de decisiones incluye un análisis de riesgo.

Evento 1 P(Evento 1) Pago 1 Alternativa 1 Evento 2 Pago 2 P(Evento 2) Punto de decisión Ejemplo: El análisis del riesgo ayuda al tomador de decisiones a identificar, cuál será el valor esperado de una alternativa de decisión VS el resultado que podría pasar. La variancia se calcula como: Donde P(Xj) es la probabilidad del evento Xj y E(X) es el valor esperado de X

Función de utilidad u (x1) = p u (x*) + (1 – p) u(x°) TEORIA DE DECISIÓN, UTILIDAD COMO BASE PARA LA TOMA DE DECISIONES El valor monetario esperado es un parámetro útil cuando las cantidades que se esperan son muy altas o la decisión es repentina, en cambio la utilidad es el grado de satisfacción que se obtiene ante un cierto resultado. Por lo anterior, las decisiones se toman para maximizar la utilidad esperada, en lugar del valor monetario esperado. Esto hace que se busque seleccionar la alternativa que brinde la mayor utilidad. Los procesos de decisión se clasifican de acuerdo según el grado de conocimiento que se tenga sobre variables no controladas por el decisor y que pueden tener influencia sobre el resultado final Certidumbre: cuando se conoce con certeza su estado, es decir, cada acción conduce invariablemente a un resultado bien definido. Riesgo: cuando cada decisión puede dar lugar a una serie de consecuencias a las que puede asignarse una distribución de probabilidad conocida. Incertidumbre: cuando cada decisión puede dar lugar a una serie de consecuencias a las que no puede asignarse una distribución de probabilidad, bien porque sea desconocida o porque no tenga sentido hablar de ella. Función de utilidad u (x1) = p u (x*) + (1 – p) u(x°) X1 = n eventos p= probabilidad de ocurrencia x* = la mejor alternativa x°= la peor alternativa

TABLA DE DECISION Muchos procesos de toma de decisiones pueden ser tratados por medio de tablas de decisión, en las que se representan los elementos característicos de estos problemas: Los diferentes estados que puede presentar la naturaleza: e1, e2, ..., en. Las acciones o alternativas entre las que seleccionará el decisor: a1, a2,...,am. Las consecuencias o resultados xij de la elección de la alternativa ai cuando la naturaleza presenta el estado ej. Se supone, por simplicidad, la existencia de un número finito de estados y alternativas. El formato general de una tabla de decisión es el siguiente:

DISTRIBUCION DE PROBABILIDAD NORMAL µ media σ Desviación estándar DISTRIBUCION DE PROBABILIDAD NORMAL La distribución normal es también conocida como distribución Gauss. Este tipo de distribución tiene una función de densidad de probabilidad que es una curva suave , simétrica, continua, en forma de campana. El área que se muestra bajo la curva, en cualquier intervalo del eje horizontal, representa la probabilidad de que la variable aleatoria X, tome un valor dentro del intervalo. El área bajo la curva suma 1. La distribución normal se determina por su media (µ), La desviación estándar (σ), las cuales una vez conociéndolas, se estable la forma y ubicación de la distribución. La curva alcanza su máximo en la media. Entre mayor sea la desviación estándar (σ), la curva es más extendida. Función de densidad de probabilidad normal con parámetros µ y σ : Función de distribución normal acumulada es:

Z = X - µ σ DISTRIBUCION DE PROBABILIDA POR MUESTREO Colas a la izquierda y la derecha El símbolo FN se usa para representar una función de distribución acumulada de una distribución de probabilidad normal. Es el área debajo de la cola izquierda de una función de densidad normal de probabilidad. Para su cálculo de aplica la siguiente fórmula: FN (b) = P (X ≤ b) Mientras que para el cálculo del lado derecho, el símbolo es GN y la fórmula sería: GN (b) = P (X ≤ b) Variable normal estandarizada Una distribución normal con µ = 0 (media de cero) y σ = 1 (desviación estándar). Si la distribución normal tiene una media distinta a cero y una desviación estándar diferente a 1, es posible estandarizar la distribución estándar. Esto permite buscar las probabilidades normales en una tabla relativamente pequeña. Para estandarizar, es necesario definir una nueva variable, la que nombraremos Z, como a continuación se muestra. DISTRIBUCION DE PROBABILIDA POR MUESTREO Este tipo de análisis utilizarán cinco distribuciones de probabilidad: 1.- La distribución de la población, donde σp = desviación estándar y µ = media. Esta distribución refleja las características de los componentes individuales de la población de las cuales se extrae la muestra. Z = X - µ σ

2. - Distribución de la muestra 2.- Distribución de la muestra. Se refiere a que tomará una muestra aleatoria de n elementos, para realizar una distribución de frecuencias, de los elementos de la muestra. 3.- Distribución de las medias de las muestras. De una población e pueden obtener muchas muestras aleatorias, cada una de las cuales tendrá un media . Si se consideran todas las muestras posibles es en si una variable aleatoria y tiene una distribución de probabilidad con una media E ( ) y desviación estándar σ. 4.- Distribución a priori de la media de la población. Antes de tomar una muestra existe una distribución a priori de la media de la población, se trata de una distribución de probabilidad subjetiva del decisor. 5.- Distribución a posteriori de la media de la población. se actualiza después de tomar la muestra para obtener una distribución a posteriori con 1, la media, y σ1, la desviación estándar. Si la distribución a priori es normal y de las medias muestrales también es normal, será normal la distribución a posteriori. TEORIA DE JUEGOS Se refiere a las decisiones con incertidumbre considerandos dos o más oponentes inteligentes donde cada oponente espera a optimizar su propia decisión, pero a costa de los otros. Ejemplo: Desarrollar campañas publicitarias para productos competitivos y planear tácticas destinadas a los bandos contendientes. La teoría de juegos, define al oponente como jugador. Cada jugar tiene un número de elecciones finito o infinito, llamadas estrategias. Los resultados o pagos de un juego se resumen como funciones de las diferentes estrategias para cada jugador. Un jugador con dos jugadores , donde la ganancia de un jugador es igual a la pérdida de otro, se conoce como un juego de dos personas y suma cero.

Para la teoría de juegos se emplea una matriz en la que los renglones representan acciones posibles, y sus columnas estados futuros posibles del sistema. Asociado a cada acción y cada estado futuro esta un resultado que evalúa la ganancia (o pérdida) resultante de tomar tal acción cuando ocurre un estado futuro dado. Por lo anterior, si ai, representa la i-enésima acción (i = 1, 2, …,n), entonces v(ai, ɵj) representará el estado respectivo. En general v(ai, ɵj) puede ser una función continua de ai y ɵj . En condiciones discretas, esta información se dispone como se muestra en la siguiente matriz, la cual representa la base para desarrollar el criterio para decisiones con incertidumbre. ɵ1 ɵ2   ɵn a1 v(a1, ɵ1) v(a1, ɵ2) … v(a1, ɵn) a2 v(a2, ɵ1) v(a2, ɵ2) v(a2, ɵn) . am v(am, ɵ1) v(am, ɵ2) v(am, ɵn) Referencias bibliográficas Bierman, Bonini y Hausman (1994). Análisis cuantitativo para la toma de decisiones. Wilmington, Delaware: Addison-Wesley Iberoamericana. Taha, Hamdy A. (2004) Investigación de operaciones. México: Alfaomega