La descarga está en progreso. Por favor, espere

La descarga está en progreso. Por favor, espere

Distribuciones de probabilidad bidimensionales o conjuntas

Presentaciones similares


Presentación del tema: "Distribuciones de probabilidad bidimensionales o conjuntas"— Transcripción de la presentación:

1 Distribuciones de probabilidad bidimensionales o conjuntas
Si disponemos de dos variables aleatorias podemos definir distribuciones bidimensionales de forma semejante al caso unidimensional. Para el caso discreto tendremos: Con:

2 Podemos encontrar la probabilidad marginal de la variable aleatoria X sumando sobre todos los posibles valores de la variable aleatoria Y: Igualmente, podemos encontrar probabilidad marginal de la variable aleatoria Y sumando sobre todos los posibles valores de la variable aleatoria Y:

3 Función de probabilidad condicional
La función de probabilidad condicional de X dado Y = y es: Y la función de probabilidad condicional de Y dado X = x es:

4 Nota: El punto 2 lo veremos más adelante.

5

6

7

8

9

10 La definición para dos variables aleatorias continuas es semejante: F(x,y) = P(X  x, Y y).
La densidad de probabilidad f(x,y) se obtiene derivando la función de probabilidad con respecto a sus argumentos: Por supuesto:

11 Las densidades de probabilidad marginales y las probabilidades condicionales se definen de forma semejante al caso bidimensional discreto sin más que sustituir sumatorios por integrales. Así:

12 Independencia Ausencia de relación de cualquier tipo entre dos v.a. Recuerda que dos sucesos, A y B, son independientes si tener información sobre uno de ellos no influye en el cálculo de prob. del otro, es decir: O equivalentemente, A y B son independientes si y solo si: De manera similar se puede definir el concepto de independencia entre v.a. Sean X e Y dos v.a. (continuas o discretas). X e Y son independientes si y solo si la distribución de una ellas condicionada por la otra es igual a la marginal de la primera, Como en el caso de sucesos, esta definición implica que X e Y son indep. si su distribución conjunta se puede calcular como el producto de las marginales, es decir:

13 Distribuciones bidimensionales e independencia
Los sucesos aleatorios {X = x} e {Y = y} son independientes si: Y entonces, dos variables aleatorias serán independientes si la relación anterior se cumple para todos los posibles pares (x,y). Podremos entonces escribir:

14 El teorema de Bayes se expresa como:

15 paralelo

16

17

18

19

20

21

22

23

24

25

26 Relaciones entre variables
Cuando construimos modelos, básicamente estamos relacionando variables con argumentos del tipo: Un aumento en la variable X está asociado a un aumento (descenso) de la variable Y. Algunos ejemplos Existe una relación positiva entre el flujo de inmigrantes a un país y la renta per capita del país de acogida. Existe una relación positiva entre la nota obtenida en probabilidad y la de estadística. Existe una relación negativa entre la tasa de fecundidad y la tasa de participación femenina. No parece que exista ninguna relación entre el volumen de lluvias en Islandia y la nota del parcial de probabilidad.

27 Las relaciones entre v. a
Las relaciones entre v.a. pueden ser de muy distinto tipo: positivas o negativas (si cuando crece la una la otra también lo hace y viceversa), lineales o no lineales, etc. También puede ocurrir que no exista ninguna relación entre dos v.a.: cuando esto ocurre diremos que dos v.a. son independientes. Vamos a describir a continuación cómo de ‘lineal’ es la relación que existe entre dos variables: para ello definimos la covarianza y la correlación X Y Relación lineal positiva Y Relación no-lineal X Y Sin relación X

28 Covarianza La covarianza mide la manera en que dos variables aleatorias X e Y varían juntas. En particular mide el tipo de relación lineal entre las variables aleatorias. Un valor positivo se interpreta como existencia de relación lineal positiva entre las v.a. X e Y. Un valor negativo, apunta a la existencia de una relación lineal negativa entre las v.a. X e Y.                                            Con:

29 Un valor igual a cero se interpreta como ausencia de relación lineal.
Pero, ojo: Esto NO es igual a decir que las v.a. son independientes. Y Y X X Las variables No tienen ningún tipo de relación, es decir son INDEPENDIENTES O de manera más general, tienen algún tipo de relación que no es lineal.

30 Se cumple que:                                            Si X e Y son variables independientes, su covarianza es cero. Observa que en este caso:                                           Puesto que X e Y son variables independientes Si la covarianza de X e Y es cero, no necesariamente X e Y son variables independientes.                                  

31 Nota: Aquí está el punto 2 que nos quedaba pendiente.

32 Propiedades de la covarianza
Si a y b son constantes:                Nota:               

33 Otro ejemplo: El equipo X y el equipo Y se enfrentan en un campeonato
Otro ejemplo: El equipo X y el equipo Y se enfrentan en un campeonato. Supón que la distribución de probabilidad conjunta del número de goles que obtienen es: Y X ¿Existe alguna relación lineal entre el número de goles marcados por uno y otro equipo? En caso afirmativo, ¿se trata de una relación estrecha?

34 Calculemos la correlación entre X e Y.
Para ello tenemos que calcular Cov(X,Y) = E(XY) - E(X)E(Y) Calculemos E(XY). Para ello calcularemos la función de masa de probabilidad de la variable aleatoria Z = XY: XY P(X=2,Y=2) P(X=1,Y=1) P(X=1,Y=2) + P(X=1,Y=2) E(XY) = 0* * * *0.20 = 1.36 E(X)=1.08; E(Y)=1.09 Por tanto, Cov (X,Y) = *1.09 = 0.18 Existe una relación lineal positiva entre los goles que marca uno y otro equipo por partido. Para cuantificar la fuerza de la relación hay que calcular el coeficiente de correlación.

35

36 En nuestro último ejemplo:
Var(X) = 0.51, Desviación tip: 0.71 Var(Y) = 0.58, Desviación tip.: 0.76 Por tanto, CORR(X,Y) = 0.18/(0.71*0.76) = 0.33 El coeficiente de correlación está lejano de cero lo que confirma que existe una relación lineal positiva significativa entre los goles marcados por X e Y. Por otra parte, este valor también está lejano a 1 por lo que se puede deducir que esta relación lineal no es muy intensa que digamos...

37 El coeficiente de correlación
Imagina que la v. a. X = beneficio (medido en millones de euros) de la empresa X e Y = beneficio en millones de euros de la empresa Y. Y que sabemos que la covarianza entre ambas variables aleatorias es: Cov(X,Y) = -1.8 Si expresáramos lo mismo en euros, en vez de en millones de euros, tendríamos: Cov(X* ,Y* )= *(-1.8) La covarianza depende de las unidades en que medimos las variables. Por tanto, NO podemos utilizarla para medir la intensidad de la relación lineal.

38 Es fácil ver que esta medida ya no depende de las unidades.
El coeficiente de correlación estandariza la covarianza de manera que no dependa de las unidades en que estamos midiendo. Definición: Es fácil ver que esta medida ya no depende de las unidades. En el ejemplo anterior: 1

39 Propiedades del coeficiente de correlación
No depende de las unidades Siempre está entre –1 y 1. Este resultado deriva de la conocida desigualdad de Schwartz. Para toda v.a Z y V, Llamando: Z = X-E(X) y V = Y-E(Y) y tomando raíces cuadradas:

40 Interpretación CORR(X,Y) = 1. Existe una relación lineal exacta entre X e Y, y la pendiente de la recta es positiva: 0< CORR(X,Y) <1, relación lineal + entre X e Y, más intensa cuanto más cercana a 1. CORR(X,Y) = 0, ausencia de relación lineal. -1< CORR(X,Y) <0, relación lineal (-) entre X e Y, más intensa cuanto más cercana a -1 CORR(X,Y) = -1, existe una relación lineal (-) exacta entre X e Y.

41 Resumen del formulario:

42

43

44 Son normales

45 Si f(x,y) es una función de densidad no normal bidimensional, entonces
no necesariamente fx(x) y fy(y) no son normales:

46

47

48

49

50

51

52 Transformación de variables aleatorias bidimensionales
Dada una variable bidimensional (X, Y), con función densidad de probabilidad conjunta f(x, y) y una transformación biunívoca: U = u(X, Y), V = v(X, Y) la función de densidad de probabilidad conjunta de la nueva variable aleatoria bidimensional (U, V) será: g(u, v) = f(x(u,v), y(u,v)) |J| con:

53

54 Ejemplo de transformación bidimensional
Sean x,y dos números aleatorios generados por distribuciones normales tipificadas N(0,1). Si son independientes, su distribución sobre un plano será: Hagamos una transformación a coordenadas polares (R,θ). Con d = R2 = x2 + y2 : que es equivalente al producto de una distribución exponencial de vida media 2, y una distribución uniforme definida en el intervalo [0,2π]. (Press et al., “Numerical Recipes”) x = 1 e y  y =  ln ( 1 x ) x = 1 e y  y =  ln ( 1 x ) x = 1 e y  y =  ln ( 1 x ) x = 1 e y  y =  ln ( 1 x )

55

56

57

58

59

60

61 Transformación de Box-Müller:
¿Cómo conseguir una distribución normal bidimensional a partir de una uniforme? Sean dos números aleatorios u1, u2 derivados de una distribución uniforme. Se realizan las transformaciones: demuestra que nos llevan a dos números aleatorios x,y cuya probabilidad sigue una distribución normal. Puesto que las transformaciones dependen de funciones trigonométricas, no son muy eficientes para el cálculo computacional. (Press et al., “Numerical Recipes”)

62 Estas transformaciones modificadas son más eficientes en el cálculo.
Para hacer el algoritmo de Box-Müller más rápido se definen las variables: v1 =2u1−1 v2 =2u2−1 Se generan números hasta que (v1,v2) se encuentre dentro del círculo de radio R = 1. v1 v2 R θ ) (−1,1) (−1,−1) (1,−1) (1,1) Estas transformaciones modificadas son más eficientes en el cálculo. para d ≤ 1. (Press et al., “Numerical Recipes”) x = 1 e y  y =  ln ( 1 x ) x = 1 e y  y =  ln ( 1 x ) x = 1 e y  y =  ln ( 1 x ) x = 1 e y  y =  ln ( 1 x )

63

64


Descargar ppt "Distribuciones de probabilidad bidimensionales o conjuntas"

Presentaciones similares


Anuncios Google