La descarga está en progreso. Por favor, espere

La descarga está en progreso. Por favor, espere

Modelización de la incertidumbre: Teoría de Probabilidad,

Presentaciones similares


Presentación del tema: "Modelización de la incertidumbre: Teoría de Probabilidad,"— Transcripción de la presentación:

1 Modelización de la incertidumbre: Teoría de Probabilidad,
Cálculo de Probabilidades y Variable Aleatoria. Teoría de la Utilidad (Modelización de Preferencias)

2 MODELIZACIÓN Modelización de la incertidumbre A: C:
Sixto Ríos, 1995, Alianza Universidad, AU822 Modelización de la incertidumbre A: Fenómeno o sistema real C: Modelo empiríco D: Conceptualización MODELIZACIÓN Nueva modelización L: Descripción, Predicción Exploración, Decisión,… E: Modelo matemático F: Proceso lógico-deductivo SI NO H: Desconceptualización e interpretación K: Validación I: Relaciones empíricas G: Relaciones matemáticas

3 Modelización de la incertidumbre
Probabilidades, Asignación y Cálculo Modelización de la incertidumbre Fenómenos en los cuales no se puede predecir el resultado de cada experiencia y observación particular  incertidumbre Modelización de la incertidumbre  explotar la regularidad estadística y para ayudar el conocimiento y juicio de expertos. tomar decisiones Medida y cálculo de la incertidumbre  Probablidad Realidad Empírica Modelo Matemático Experimento o Fenómeno Espacio probabílistico Resultados experimentales Sucesos Frecuencias en largas series Probabilidades Propiedades de la frecuencia Axiomas de la probabilidades Juicio de expertos Probabilidades subjetivas Consistencia y coherencia Axiomas de la probabilidad subjetiva

4 Sucesos aleatorios. Espacio muestral
Probabilidades, Asignación y Cálculo Sucesos aleatorios. Espacio muestral Experimentos y Fenómenos Deterministas: {Condiciones}    Resultado; Aleatorios: {Condiciones}    {Resultados} Experimento y Fenómeno Aleatorio: un conjunto de reglas y condiciones de realización; es repetible y el resultado manifiesta azar Sucesos Elementales: resultados exhaustivos y excluyentes que observamos en las realizaciones del experimento y descritos mediante proposiciones simples Sucesos Aleatorios: posibles resultados observados en un experimento aleatorio y descritos mediante proposiones simples, compuestas y/o predicados Espacio Muestral: conjunto de los sucesos elementales, E Espacio de Sucesos: conjunto de todos los sucesos aleatorios; conjunto de los subconjuntos del espacio muestral, (E), |E|=n,|(E)| = 2n

5 Sucesos aleatorios. Espacio muestral
Probabilidades, Asignación y Cálculo Sucesos aleatorios. Espacio muestral Tras un experimento aleatorio siempre observamos un suceso-resultado de E El conjunto E debe ser exhaustivo contemplando todas las posibilidades lógicas, con independencia de que a priori se puedan calificar ciertos resultados de excepcionales frente a otros que se consideran normales Tras un experimento aleatorio ocurre el suceso A si el resultado elemental observado es un elemento de A En un experimento aleatorio decimos que el suceso A está incluido en el suceso B, A  B, si la observación de A ímplica la observación de B Dos sucesos son iguales si A  B y B  A ((E), ) es un conjunto parcialmente ordenado  es minimal, E es maximal y los sucesos elementales junto a  son los átomos

6 Operaciones con sucesos
Probabilidades, Asignación y Cálculo Operaciones con sucesos Sucesos disjuntos o incompatibles en un experimento aleatorio cuando no se observan simultaneamente, la observación de uno excluye al resto Intersección de sucesos : (E)  (E)  (E), (A,B)  A  B Se observa el suceso intersección si se observan ambos Unión de sucesos : (E)  (E)  (E), (A,B)  A  B Se observa el suceso unión si se observa al menos uno Suceso complementario o contrario de A es el suceso observado cuando no observamos A. Se denota con ¬A. ¬E = , E = ¬, A  ¬A = E, A  ¬A = , A  B  ¬B  ¬A Sucesos Seguro e Imposible: el espacio muestral, E, se observa seguro; el suceso que nunca se observa es ¬E, es imposible, y se simboliza con  Diferencia de sucesos: A – B = A  ¬B, observamos A y ¬B Diferencia simétrica de sucesos: A  B = (A – B)  (B – A)

7 Operaciones con sucesos
Probabilidades, Asignación y Cálculo Operaciones con sucesos Álgebra de Boole de sucesos.  E y (E), con las operaciones , , ¬, A, B, C  (E) 1. Conmutativas: A  B = B  A, A  B = B  A 2. Asociativas: A  (B  C) = (A  B)  C, A  (B  C) = (A  B)  C 3.  elemento neutro: A   = A, A  E = A 4. Distributivas: A  (B  C) = (A  B)  (A  C), A  (B  C) = (A  B)  (A  C) 5. Complementario: A  ¬A = E, A  ¬A =  ((E), , , ¬) es un Álgebra de Boole Propiedades: 6. Idempotencia: A  A = A, A  A = A 7. Maximalidad-minimalidad: A  E = E, A   =  8. Involución: ¬(¬A)) = A 9. Simplificación o absorción: A  (A  B) = A, A  (A  B) = A 10. Leyes de Morgan: ¬(A  B) = ¬A  ¬B, ¬(A  B) = ¬A  ¬B Definiciones alternativas: Axiomática de Huntington (props. {1,3,4 y 5}) y Retículo distributivo y complementario (props. {1,2,6, y 9} (retículo) y {4 y 5}) Principio de Dualidad (  , E  )

8 Enfoques de la Probabilidad
Probabilidades, Asignación y Cálculo Enfoques de la Probabilidad Enfoque Clásico Laplace, “Teoría analítica de probabilidades” 1812 Supuesto que todos los resultados elementales son igualmente verosímiles, la probabilidad de un suceso es el cociente entre el número de resultados favorables y el número total de resultados posibles Probabilidad de A = cardinal de A / cardinal de E = |A| / |E| Hipótesis de simetría respecto al espacio muestral que puede no ser cierta en muchos experimentos aleatorios Si el número de total de resultados no es finito no se puede calcular el cociente

9 Enfoques de la Probabilidad
Probabilidades, Asignación y Cálculo Enfoques de la Probabilidad Enfoque Frecuentista (Richard Von Mises ( ) ) Experimento aleatorio repetido N veces Espacio muestral E y un suceso A que se observa n veces, 0  n  N Frecuencia Absoluta de A: n Frecuencia Relativa de A: f(A) = n/N Propiedades de la frecuencia relativa (A y B  (E)): 1. 0  f(A)  f(¬A) = 1 – f(A) 3. A  B  f(A) < f(B) 4. A  B =   f(A  B) = f(A) + f(B) 5. f(E) = f(A  B) = f(A) + f(B) – f(A  B) Contexto de un experimento aleatorio que se repite indefinidamente en identicas condiciones. Probabilidad como límite empírico: Probabilidad de A = límite n/N, n Conflicto: condiciones estables en un tiempo indefinido

10 Enfoques de la Probabilidad
Probabilidades, Asignación y Cálculo Enfoques de la Probabilidad Enfoque Subjetivo o Personal (Finetti, 1975; French, 1986) Contexto de un suceso que puede observarse una sola vez La probabilidad representa el grado de creencia de que se observe un suceso o que el sistema presente un cierto estado Probabilidad de A = cuantificación de la creencia en la observación de A tras la observación de cierta Información relevante o evidencia Enfoque natural para la representación y el análisis de juicios con imprecision Enfoque personal, las probabilidades se asocian al observador no al sistema objeto La probabilidad está definida por el grado de creencia personal y el grado de información disponible, que puede cambiar y actualizar la probabilidad La cuantificación del grado de creencia es un probabilidad si verifica la Axiomática de Kolmogorov u otra axiomatización que garantice la coherencia

11 Axiomas de Kolmogorov Probabilidades, Asignación y Cálculo
Axiomas de la Teoría de la Probabilidad (Kolmogorov, 1933) Se basa en la Teoría de la Medida Fundamenta el concepto de probabilidad y el cálculo de probabilidades Definición de -Álgebra A: 1. A  A  ¬ A  A {Ai}i=1  A  i=1 Ai A ,  y ¬ son leyes de composición interna en la -Álgebra. Ej’s: (E) y {E, } Espacio Probabilizable: (E, A) Probabilidad en (E, A) es toda aplicación P: A+, que verifique los axiomas: A1. P(E) = 1 A2 . {Ai}i=1  A, Ai  Aj = , ij  P(i=1 Ai ) = i=1 P(Ai) Espacio de Probabilidad: (E, A, P). E finito, infinito numerable, continuo. Propiedades de una probabilidad. A y B sucesos de un (E, A, P) 1. P() = 0 2. P(¬A) = 1 – P(A) 3. A  B  P(A)  P(B) 4. 0  P(A)  1 5. P(A  B) = P(A) + P(B) – P(A  B)

12 Axiomas de la Probabilidad Subjetiva
Probabilidades, Asignación y Cálculo Axiomas de la Probabilidad Subjetiva A, B y C  (E, A, P.Subjetiva) El decisor/experto tiene percepción inherente de verosimilitud relativa y puede decir: A más verosímil que B, menos o igual. Relación binaria A B: “A al menos tan verosímil como B” S es un orden débil (transitividad, completud, consistencia) S2. Independencia de sucesos comunes: si A  C = B  C =   A B  A  C B  C S3. No trivialidad: A ,  A S4. El experimento de referencia, donde el decisor/experto está preparado para considerar sus creencia (rueda de la fortuna) S5. Continuidad:  A, el decisor/experto puede identificarlo con un suceso sobre la rueda de la fortuna à tal que A ~ à S6. Equivalencia de certidumbres: () = 360º p 1-p

13 Axiomas de la Probabilidad Subjetiva
Probabilidades, Asignación y Cálculo Axiomas de la Probabilidad Subjetiva Si se verifican los 6 axiomas existe una única medida de probabilidad que satisface "probabilidades mayores a sucesos más verosímiles" Los axiomas S1-S6 garantizan que ! P tal que A B  P(A)  P(B) Construcción P(A) = (A) / 360º Verifica los axiomas A1 y A2 de Kolmogorov French muy basado en DeGroot (1979) Otros sistemas axiomáticos: DE Finetti (1937), Raiffa (1968), Ramsey (1931), Savage (1954)

14 Resultados Básicos con Probabilidades
Probabilidades, Asignación y Cálculo Resultados Básicos con Probabilidades A, B y C  (E, A, P) Probabilidad de la unión: P(A  B) = P(A)+P(B)-P(A  B) P(A  B  C) = P(A)+P(B)+P(C)-P(A  B)-P(A  C)-P(B  C)+P(A  B  C) Probabilidades conjuntas: P(A  B), P(A  ¬B), P(¬A  B), P(¬A  ¬B) 22 sucesos Incompatibles. Tabla de doble entrada, dos dimensiones. P(A  B  C), P(A  B  ¬C), P(A  ¬B  C), P(A  ¬B  ¬C) P(¬A  B  C), P(¬A  B  ¬C), P(¬A  ¬B  C), P(¬A  ¬B  ¬C). 23 sucesos Incompatibles. Tabla de triple entrada, tres dimensiones. Probabilidades marginales (sucesos incompatibles, suma por dimensiones): P(A) = P(A  B  C)+P(A  B  ¬C)+P(A  ¬B  C)+P(A  ¬B  ¬C) P(A) = P(A  B  C  A  B  ¬C)+P(A  ¬B  C  A  ¬B  ¬C) P(A) = P(A  B  (C  ¬C)) + P(A  ¬B  (C  ¬C)) P(A) = P(A  B  E)+P(A  ¬B  E) = P(A  B  A  ¬B ) = P(A  E) = P(A)

15 Resultados Básicos con Probabilidades
Probabilidades, Asignación y Cálculo Resultados Básicos con Probabilidades Probabilidades condicionadas: P( A | B) = P(A  B) / P(B), P( B | A) = P(A  B) / P(A), P(A | B  C) = P(A  B  C) / P(B  C),…. (E, A, P(.|B)) espacio de probabilidad condicionado a B  (E), P(B) > 0. Probabilidad de la intersección  Regla de multiplicación o Tma de producto P(A  B) = P(A | B) P(B) = P(B| A) P(A) P(A  B  C) = P(A) P(B | A) P(C | A  B) = P(B) P(A | B) P(C | A  B),…. Independencia e independencia mutua. P( A | B) = P(A), P( B | A) = P(B),  P(A  B) = P(A) P(B) P(A  B  C) = P(A) P(B) P(C), P(A  B) = P(A) P(B), P(A  C) = P(A) P(C), P(B  C) = P(B) P(C), en general, 2n-1 condiciones necesarias y suficientes para la independencia de n sucesos. Teorema de la Probabilidad Total 1. A1,..An, n sucesos tales que Ai  Aj = , ij, i=1 Ai = E y se conocen P(Ai), 2. B  (E), tal que se conocen (B | Ai)  P(B) = P(B  E) = P( B  (i=1 Ai )) = i=1 P(B | Ai) P(Ai) {Ai}i=1  A: partición o sistema completo de sucesos

16 Resultados Básicos con Probabilidades
Probabilidades, Asignación y Cálculo Resultados Básicos con Probabilidades Árboles de probabilidades Herramienta de cálculo de probabilidades Experimentos estructurados en etapas. Diagrama de árbol de la regla de multiplicación EJEMPLO: Cadena de tiendas. Tres marcas de grabadoras de DVD: M1 M2 M3. Ventas 50%, 30% y 20%, respect. Un año de garantía. 25% de M1, 20% de M2, 10% de M3 tienen avería en el periodo de garantía. R: necesita reparación M1 M2 M3 R ¬R 0.5 0.3 0.2 0.25 0.75 0.8 0.1 0.9 P(R | M1) P(M1) = P(R  M1) = 0.125 P(R | M2) P(M2) = P(R  M2) = 0.06 P(R | M3) P(M3) = P(R  M3) = 0.02

17 definición de probabilidad condicionada y teorema probabilidad total
Probabilidades, Asignación y Cálculo Resultados Básicos con Probabilidades Teorema de Bayes: actualización de creencias. (E, A, P), R  A Si: sistema completo de sucesos, P(Si) > 0 Si causas (avería, enfermedad, tratamiento,…), R efecto (evidencia, observación, prueba, test,…) P(Si | R) = P(Si  R) / P(R) = definición de probabilidad condicionada y teorema probabilidad total = P(R | Si) P(Si) / P(R) = P(R | Si) P(Si) / (ni=1 P(R | Si) P(Ci)) Presente Ausente A: enfermedad presente / ausente. B: a priori. C: condicionado al test T(+/-).

18 Resultados Básicos con Probabilidades
Probabilidades, Asignación y Cálculo Resultados Básicos con Probabilidades Teorema de Bayes: actualización de creencias. P(A) = 0.77, P(¬A) = 0.22 P(T+| A) = 0.71, P(T+| ¬A) = 0.15 P(T-| A) = 0.29, P(T-| ¬A) = 0.85 P(T+) = (P(T+| A) P(A)+P(T+| ¬A) P(¬A)) = P(T-) = (P(T-| A) P(A)+P(T-| ¬A) P(¬A)) = P(A| T+) = P(T+| A) P(A) / P(T+) = 0.71*0.77 / (0.71* *0.22) = 0.943 P(¬A| T+) = P(T+| ¬A) P(¬A) / P(T+) = 0.15*0.22 / (0.71* *0.22) = 0.056 P(A| T-) = P(T-| A) P(A) / P(T-) = 0.29*0.77 / (0.29* *0.22) = 0.544 P(¬A| T-) = P(T-| ¬A) P(¬A) / P(T-) = 0.85*0.22 / (0.29* *0.22) = 0.455 A: enfermedad (presente / ausente). Test T(+/-). P(T+)+P(T-)=1.0. P(A|T+)+P(¬A|T+)=1.0. P(A|T-)+P(¬A|T-)=1.0. Interpretación

19 Variables aleatorias Probabilidades, Asignación y Cálculo
El concepto de variable aleatoria permite pasar de los resultados experimentales (E) a una función numérica (real) de los resultados Dado el espacio probabílistico (E, A, P), la aplicación : E  ,   () es un variable aleatoria si  x  , {  E: ()  x} es un suceso, -1((-,x])  A, -Álgebra La probabilidad definida sobre sucesos se transforma en probabilidad de que la variable aleatoria  tome valores en (-,x], P(  x) Se trata de un cambio de lenguaje: antes el algebra de Boole y ahora la Teoría de Funciones del Análisis (herramientas matemáticas: funciones de variable real, cálculo diferencial e integral,.....)

20 Variables aleatorias Probabilidades, Asignación y Cálculo
Modelización: Abstracción Modelo de distribución de probabilidad: especificación de los posibles valores de la variable aleatoria con sus probabilidades Notación: X, Y,... variables aleatorias. X()=x, Y()=y,.... número asociado al resultado   E, cuantificación Lenguaje de sucesos  de probabilidad  de funciones reales Sucesos Variable aleatoria - Venta de un producto número de productos vendidos - Llegada de un cliente número de clientes atendidos - Tamaño de un número de kbytes enviados por - Fallo de un dispositivo número de horas hasta el fallo de un dispositivo - Curación de un paciente número de años de supervivencia post-tratamiento - Incendio forestal número de hectáreas quemadas (+localización)

21 Variables aleatorias Probabilidades, Asignación y Cálculo
Diferencias entre Estadística Descriptiva y Cálculo de Probabilidades: - La variable estadística es descriptiva, analiza hechos. - La variable aleatoria es probabilista, analiza causas potenciales, sobre el futuro, no hechos, el proceso generador de los hechos, datos Tipos de variables aleatorias: asociación entre resultado y un número real - Discreta: toma un conjunto de valores finito o infinito numerable Cardinal(E)  N - Continua: toma valores en un intervalo, Cardinal()  potencia del continuo

22 Variables aleatorias. Función de distribución
Probabilidades, Asignación y Cálculo Variables aleatorias. Función de distribución La variable aleatoria no se presta al Análisis Real pues son funciones reales de sucesos (conjuntos) y no de variable real, sobre  Se introduce la función de distribución de la variable aleatoria : F:   [0,1], F(x) = P(()  x) Propiedades: 1. 0  F(x) 1,  x   2. lim x  - F(x) = 0, lim x  + F(x) = 1 3. x1 < x2  F(x1)  F(x2), monotonía no decreciente 4. lim x  a+ F(x) = F(a),  a  , continuidad por la derecha 5. P(a    b) = F(b) – F(a), probabilidad de un intervalo

23 Variables aleatorias discretas
Probabilidades, Asignación y Cálculo Variables aleatorias discretas La variable aleatoria  se dice discreta si toma valores en un conjunto numerable {x1,x2,…xn,…}, finito o infinito. Si pi = P(  xi)  0, i=1,2,…n,… 1. i pi = 1 2. P(  xn) = ni pi Se define la función de probabilidad de la variable aleatoria : P(=x) = P({  E: ()=x}) Asignación de probabilidad a los sucesos elementales sobre los que la variable aleatoria toma el valor x. Masa de probabilidad puntual Se obtiene la función de distribución de la variable aleatoria : F(x) = P(  xj) = P({  E: ()  xj}) = xj  x P(=xj) = xj  x Pj La F(x) de una variable aleatoria discreta es escalonada

24 Variables aleatorias discretas
Probabilidades, Asignación y Cálculo Variables aleatorias discretas Binomial Número de aciertos al observar B resultados dicotómicos o serie de Bernoulli. B=1, distribución de Bernoulli La probabilidad de observar un número de aciertos en B ensayos independientes con una proporción de aciertos A Hipergeométrica: Binomial en un contexto de muestreo de n elementos con reemplazamiento, Np aciertos, Nq fallos, N=Np+Nq y n PDF = CNpyCNqn-x/CNn Mean = np, Variance = npq(N-n)/(N-1) Multinomial: resultados en más de dos clases o categorías.

25 Variables aleatorias continuas
Probabilidades, Asignación y Cálculo Variables aleatorias continuas Una variable aleatoria es continua si toma valores en un intervalo (xa,xb)   Se dice absolutamente continua si P(x    x+dx) = f(x)dx, donde f es su función de densidad (generaliza el histograma con infinitas clases) Propiedades: 1. f(x)  0, x 2. +- f(x)dx = 1 3. F(x) = P(-    x) = x- f(t)dt 4. f(x) = dF(x)/dx  el modelo de probabilidad se define con f o F. Los puntos o valores discretos de la variable aleatoria continua no tienen masa de probabilidad. La probabilidad de un valor x=a es la del intervalo [a-1/2,a+1/2] La probabilidad de un intervalo [a,b] es P(a    b) = ba f(t)dt Variable aleatoria mixta: F(x) = F1(x)+(1 - )F2(x), 0    1, F1 vad, F2 vac x f(x) F(x)

26 Variables aleatorias continuas
Probabilidades, Asignación y Cálculo Variables aleatorias continuas Algunas distribuciones continuas: Antilognormal, HalfNormal(A,B), Bell curve, HyperbolicSecant(A,B), Beta(A,B,C,D), Inverse Gaussian, Bilateral exponential, InverseNormal(A,B), Bradford(A,B,C), Laplace(A,B), Burr(A,B,C,D), Logistic(A,B), Cauchy(A,B), LogLogistic, Chi(A,B,C), LogNormal(A,B), Chi-square, LogWeibull, Cobb-Douglas, Lorentz, Cosine(A,B), Maxwell, Double-exponential, Negative exponential, DoubleGamma(A,B,C), Nakagami(A,B,C), DoubleWeibull(A,B,C), Non-central Chi, Erlang, Normal(A,B), Error function, Pareto(A,B), Exponential(A,B), Power-function, Extreme-value Rayleigh, ExtremeLB(A,B,C), Reciprocal(A,B), Fisher-Tippett Rectangular, Fisk(A,B,C) Sech-squared, FoldedNormal(A,B), Semicircular(A,B), Frechet StudentsT(A,B,C), Gamma(A,B,C), Triangular(A,B,C), Gaussian, Uniform(A,B), GenLogistic(A,B,C), Wald, Gompertz, Weibull(A,B,C), Gumbel(A,B)

27 Variables aleatorias. Características
Probabilidades, Asignación y Cálculo Variables aleatorias. Características Esperanza E[X], medida de centralización, promedio de los valores de la variable con su probabilidad (va discreta) o densidad de probabilidad (va continua). Es un operador lineal E[aX+b]=aE[X]+b, E[h(X)] = +- h(t)f(t)dt Varianza Var(X), medida de dispersión asociada a la Esperanza Var(X) = 2 = E[(X-E[X])2], promedio con su probabilidad (va discreta) o densidad de probabilidad (va continua). Var(X) = E[X2-E[X]2]. Var((aX+b) = a2Vax(X) Cuantiles de orden p  [0,1], valores de la variable aleatoria que son la raiz de la ecuación F(xp) = p, p  {1/4,1/2,3/4} xp cuartiles, p  {1/10,1/5,…9/10} xp deciles, p  {1/100,1/50,…99/100} xp percentiles Momentos de orden k: 0,1,3,4,5,… E[Xk], k = E[(X-E[X])k], E[(X-x*)k]. CAs = 3 / 3, CAp = (4 / 4) – 3, CV =  /  Mediana: cuartil x1/2, Moda: Máximo de Pj (va discreta) o de f(x) (va continua) Tipificación:  va X, Y=(X-E[X])/Var(X) presenta E[Y]=0 y Var(Y)=1.

28 Variables aleatorias Probabilidades, Asignación y Cálculo
Teorema de Markov Dada la variable aleatoria  y g()  0,  K > 0, P(g()  K)  E[g()]/K Desigualdad de Chebyschev Dadas E[] y  de cualquier variable aleatoria,  K > 0 P(|  - E[]| < K )  1 – 1/K2 P(|  - E[]|  K ) < 1/K2

29 Educción de probabilidades
Probabilidades, Asignación y Cálculo Educción de probabilidades Estimación de probabilidades Estimación objetiva (frecuencia relativa) y subjetiva (expertos) Asignación de probabilidades: tarea compleja. Métodos rigurosos y sistemáticos Métodos directos e indirectos Probabilidades para variables discretas y continuas Morgan y Henrion (1990)

30 Educción de probabilidades. Métodos de asignación
Probabilidades, Asignación y Cálculo Educción de probabilidades. Métodos de asignación Datos. Momentos (Pearson) Los k parámetros  son funciones de los momentos m1,…mk Los momentos muestrales definen k ecuaciones. Estimaciones insesgadas (E[’]= ), efiecientes (min Var()), consistentes (E[’n]  )y robustas ((1-)f(X)+  g(X)). ECM(’) = E[(- ’)2] EMV (Fisher) Maxima verosimilitud, estimar los parámetros de la distribución que maximizan la probabilidad de la muestra observada. Se supone que los datos son variables aleatorios identicamente distribuidas e independientes. Estimaciones insesgadas (E[’]= ) Otros métodos.

31 Educción de probabilidades. Métodos de asignación
Probabilidades, Asignación y Cálculo Educción de probabilidades. Métodos de asignación Discretas Asignación directa (simple y poco fiable) Asignación basada en apuestas (motivación económica, punto de indiferencia, favorable  desfavorable  favorable  …. Convergencia) Asignación basada en loterías (comparar sorteos con uno de referencia) Representación con árboles de sucesos Continuas Utilizar los métodos anteriores para asignar ciertas probabilidades acumuladas y ajustar una función de distribución Solicitar ciertos cuantiles (percentiles y cuartiles) y ajustar la F

32 Educción de probabilidades. Métodos de asignación
Probabilidades, Asignación y Cálculo Educción de probabilidades. Métodos de asignación Otros métodos - mejoras Método de la probabilidad: sesgo de confianza y anclaje, construir la F en ciertos intervalos, contrastar y revisar los resultados Método de las alturas relativas: escalas termométricas. Pj, f(x) Método de Raiffa-Schlaifer: moda, hipótesis de apuntamiento elevado y probabilidad baja de valores alejados de la moda Descomposición y asignación de probabilidades: puede ser en principio más sencillo asignar probabilidades condicionadas y tendencias. Árboles de probabilidad – escenarios condicionantes

33 Educción de probabilidades. Métodos de asignación
Probabilidades, Asignación y Cálculo Educción de probabilidades. Métodos de asignación Fases de educción Adquisición de conocimiento (PROBABILISTICO) – Inteligencia Artificial. Marco: encuesta / entrevista + diseño y preparación y ejecución y análisis 1. Motivación: importancia y propósito 2. Estructuración: definición de las variables y distribuciones de interés. Escalas, tablas, parametros, características, funciones,… Dependencias. 3. Condicionamiento: identificar sesgos y las causas (experto, técnicas,…) Tarea compleja en tiempo. SRI: fases 1, 2, 3 y 4. Codificación: valores extremos (sesgos), redundancia (inconsistencias), revisión, sensibilidad del experto al nivel de información o evidencia 5. Verificación: refleja la asignación las creencias del experto? Cuestionario derivado del modelo de probabilidad asignado.

34 Educción de probabilidades. Métodos de asignación
Probabilidades, Asignación y Cálculo Educción de probabilidades. Métodos de asignación Comparativa de métodos. - Depende del problema, del experto/decisor - Recomendado: utilizar varios métodos. Contraste de Consistencia de los resultados o juicios. Las inconsistencias pueden resolverse o no en el marco del modelo. Contraste de Coherencia entre sucesos complementarios. El espacio muestral tiene probabilidad 1. Calibración: ensayar el método/técnica en un problema sencillo no trivial antes de atacar la asignación en el problema real

35 Educción de probabilidades. Métodos de asignación
Probabilidades, Asignación y Cálculo Educción de probabilidades. Métodos de asignación Sucesos muy raros Asignación de probabilidades pequeñas de sucesos sin precentes. Estimaciones subjetivas muy sensibles al sesgo (infra/sobrestimación) Difícil discriminar ordenes de magnitud en las probabilidad pequeñas. Procedimientos de asignación: descomposición e identificación de factores que determinan escenarios con probabilidades significativas del suceso raro Arboles de sucesos: árboles de probabilidad, etapa ~ factor. El Cálculo de Probabilidades suministra la probabilidad global a partir de las de los factores. Sucesos raros (sr)  hojas Arboles de fallos: descomposición causal del suceso raro. Causas  hojas. sr1 ¬sr ¬sr sr2 ¬sr ¬sr sr o y c1 c2 c3 c31 c32

36 Educción de probabilidades. Métodos de asignación
Probabilidades, Asignación y Cálculo Educción de probabilidades. Métodos de asignación Heurísticas y sesgos Disponibilidad de la heurística. Recuerdos fuertes, Imaginación, correlaciones falsas 2. Representividad de la heuristica. Ignorancia de las tasas frecuencia, secuencias de artefactos o patrones previos, ignorancia de la regresión a la media, conjunción de falacias 3. Ajuste de la heurística. Insuficiencia, sobreestimación de conjunción de eventos, infraestimación de disyunciones de eventos. 4. Otros sesgos en los juicios. Sobre estimar los sucesos deseables, propagar la covarianza entre sucesos Calidad de los juicios probabilísticos: expertos reales, problemas reales no de laboratorio, asignación comprensible, motivación, frecuencia ~ probabilidad

37 Educción de probabilidades. Discretización
Probabilidades, Asignación y Cálculo Educción de probabilidades. Discretización Características de variables aleatorias continuas Simulación, integración, discretización Discretización: perdida de información mínima Por niveles en cada nivel la media o mediana Uniforme, ajuste de error No Uniforme, para variables aleatorias multidimensionales Divergencia de Kullback y Leibler


Descargar ppt "Modelización de la incertidumbre: Teoría de Probabilidad,"

Presentaciones similares


Anuncios Google