La descarga está en progreso. Por favor, espere

La descarga está en progreso. Por favor, espere

Variables Multidimensionales

Presentaciones similares


Presentación del tema: "Variables Multidimensionales"— Transcripción de la presentación:

1 Variables Multidimensionales
Unidad IV: Variables Multidimensionales y Teoremas Límites

2 Variables bidimensionales Esperanzas y momentos Covarianza Coeficiente de Correlación Indepen. y Condicionalidad Transformaciones de variables Variables aleatorias multidimensionales Sumas de variables aleatorias

3 4.1 Variables bidimensionales
Cuando se está interesado no sólo en el estudio de una variable aleatoria individual sino que también en la relación entre dos o más variables aleatorias, aparecen las variables bidimensionales o n- dimensionales. Dado un experimento, el par (X, Y) se llama variable aleatoria bidimensional si cada Xi, i = 1,2 es una variable aleatoria.

4 El par (X1, X2 ) es conjuntamente continuo si cada Xi,
i=1,2 es una variable aleatoria continua y es conjuntamente discreto si cada Xi, es una variable aleatoria discreta. Si una variable es discreta y la otra es continua, entonces (X1, X2) es un vector aleatorio mixto.

5 Si el par (X1, X2) es discreto, entonces su función de probabilidades es de la forma:
Si A  Rx1x2 entonces la probabilidad del evento A es:

6 - Distribución marginal de X1:
Las funciones de probabilidades individuales de las variables X1 y X2 se llaman probabilidades marginales X1 y X2, respectivamente. - Distribución marginal de X1: - Distribución marginal de X2:

7 Si A = {(x1, x2): a1 < x1 < b1 , a2 < x2 < b2}, entonces:
Si el par (X1, X2) es continuo, entonces su función de densidad de probabilidad debe satisfacer las siguientes condiciones: Si A = {(x1, x2): a1 < x1 < b1 , a2 < x2 < b2}, entonces: para todo a1 , a2 , b1 , b2

8 Densidades marginales para X1 y X2
- Densidad marginal para X1: - Densidad marginal de X2: Las función de distribución, F(t1 ,t2), para una variable aleatoria bidimensional (X1 , X2) está dada por:

9 Si la función de distribución es continua y la segunda derivada parcial de F(x1 ,x2) existe, la función de densidad bivariante de (X1, X2) es:

10 Ejemplo: Consideremos las v.a. bidimensional
(X, Y) con función de probabilidad conjunta 1.- Calcule la probabilidad conjunta de que: a) Y no supere a 2 y X supere a 1. b) Y no supere a X. 2.- Las distribuciones marginales de X e Y. 3.- Las Esperanzas y Varianzas de las v.a. X e Y.

11 Solución 1a) 1b) 2) 3)

12 Ejemplo: Supongamos que la f.d. conjunta de X e Y está dada por
Determine las marginales.

13 Calcular las siguientes probabilidades:

14

15 Ej.: Consideremos las v.a. X e Y, con f.d. conjunta
Determine la función de distribución de (X,Y) Obviamente si

16

17

18

19 4.2 Esperanzas y momentos

20 Los momentos conjuntos centrales de X e Y se pueden definir como:
Sea g(X, Y) = Xj Yk, j, k ≥ 0, tenemos E[Xj Yk] llamado momento conjunto (j, k) de la variable aleatoria bidimensional (X, Y): Los momentos conjuntos centrales de X e Y se pueden definir como: Utilizando

21 Se puede probar que es invariante por traslaciones de ejes; esto es,
La Covarianza entre las variables X e Y La Correlación o Coeficiente de Correlación entre las variables X e Y Se puede probar que es invariante por traslaciones de ejes; esto es,

22

23 4.3 Independencia y Condicionalidad
Dada una variable aleatoria bidimensional (X1, X2) con función de distribución F(x1, x2) y marginales Fx1(x1) y Fx2(x2), diremos que X1 y X2 son independientes si: y Teorema 4.3 Sean X1 y X2 variables aleatorias independientes. Si Y1=G(X1) e Y2=H(X2) son funciones monótonas de X1 y X2, respectivamente, entonces Y1 e Y2 son variables aleatorias independientes.

24 Teorema 4. 4 Sean X1 y X2 variables aleatorias independientes
Teorema 4.4 Sean X1 y X2 variables aleatorias independientes. Si G(X1) y H(X2) son sólo funciones de X1 y X2, respectivamente, entonces: Teorema 4.5 Si X1 y X2 son variables independientes, entonces

25 Sea (X1, X2) una variable aleatoria bidimensional. Entonces:
a) Si (X1 ,X2) es conjuntamente discreta, definimos la función de probabilidad condicional de X2 dada X1=x1 y es cero en otro caso b) Si (X1 ,X2) es una variable aleatoria continua, definimos la función de densidad condicional de X2 dada X1=x1 y es cero en otro caso Análogamente, se pueden definir las distribuciones condicionales de X1 dada X2=x2.

26 Si X1 y X2 son variables aleatorias independientes
La media y varianza condicional para una variable bidimensional continua (X1, X2). Si X1 y X2 son variables aleatorias independientes cuando la esperanza de X1 existe.

27 Ejemplo: Consideremos la v.a.d. X1 con f.de p.
Y definamos

28 4.4 Transformaciones de variables
Considerando una variable aleatoria bidimensional (X1, X2) con densidad fx1x2 (x1, x2) y sea: una transformación continua y biunívoca. Suponiendo que G1 y G2 admiten derivadas parciales continuas y considerando una región A del plano x1x2 tal que el Jacobiano de la transformación es distinto de cero, entonces, en todos los puntos de A existe la transformación inversa de (Y1,Y2) la cual es continua y uniforme en una región B del plano y1y2.

29 Ejemplo Consideremos las variables aleatorias X1 y X2 con función de densidad conjunta f(x1,x2) = e-(x1+x2) , x1 > 0, x2 > 0. Determinemos la función de densidad de Y = X1/(X1+X2). La transformación inversa está dada por: siendo el valor absoluto del Jacobiano de la inversa es: |J1| = |z/y2| Definimos la siguiente transformación:

30 - La función densidad conjunta de Y y Z es:
- La marginal de Y es: Haciendo el cambio de variable u = z/y se tiene que es decir, Y tiene distribución uniforme en (0,1).

31 Ejemplo Sean X1 y X2 variables aleatorias independientes, cada una con distribución uniforme sobre el intervalo (0,1). Determinemos la función de densidad de Y = X1+X2. Considerando la transformación uno a uno - La transformación inversa está dada por: siendo su Jacobiano J1 = 1 Como X1 y X2 son variables aleatorias independientes, entonces la densidad conjunta de X1 y X2 es el producto de las marginales correspondientes; esto es,

32 - La función densidad conjunta de Y y Z es:
o bien Para obtener la densidad marginal de Y integramos separadamente en: y ≤ 0 ; 0 <y < 1 ; 1 <y < 2 e y ≥ 2.

33 Ejemplo Supongamos que X1, X2 y X3 son variables aleatorias independientes, cada una con distribución exponencial de parámetro  = 1. Calculemos la función de densidad de Y = (X1+X2+X3)/3. Considerando la siguiente transformación uno a uno Como las variables son independientes, la densidad conjunta está dada por:

34 - La transformación inversa está dada por:
siendo su Jacobiano J1 = 3 - La densidad conjunta de Y1, Y2 e Y3 es: y la densidad marginal de Y1 = (X1 + X2 + X3)/3

35 Ejemplo Sean X1 y X2 variables aleatorias independientes, cada una con distribución Poisson con parámetro común . Queremos determinar la función de probabilidades de Y = X1+X2. Definiendo la siguiente transformación uno a uno: Cuya transformación inversa es Como X1 y X2 son independientes, entonces la función de probabilidad conjunta es

36 La función de probabilidad conjunta de Y1 e Y2 es
donde La función de probabilidad de Y1 = X1+X2 Por lo tanto, Y1 = X1+X2 es una variable aleatoria con distribución Poisson de parámetro 2.

37 4.5 Variables aleatorias multidimensionales
X = (X1,… Xn) es un vector aleatorio continuo si cada una de sus componentes Xi, i = 1,…,n es una variable aleatoria continua. Análogamente, diremos que X es discreto si cada Xi, i = 1,….,n, es una variable aleatoria discreta. En cada caso y según corresponda, podemos asociar a X una función de probabilidades o una función de densidad de probabilidades, respectivamente. Si X es discreta, la función de probabilidad asociada es

38 La función de probabilidades para la variable n-dimensional debe satisfacer las reglas análogas al caso unidimensional: Dada pX(x), podemos calcular las marginales, haciendo También se puede determinar la función de probabilidades conjuntas de dos o más componentes, a partir de pX(x).

39 Las variables aleatorias Xi, i=1,…,n, son idénticamente distribuidas si cada una de ellas tiene la misma distribución de probabilidades. Las variables aleatorias Xi, i=1,…,n son independientes si y sólo si

40 Teorema 4.5 Si X1,…,Xn son variables aleatorias independientes y si Y1=G1(X1),…,Yn=Gn(Xn), son funciones de X1,…,Xn, respectivamente, entonces Y1,…,Yn son variables aleatorias independientes. Teorema 4.6 Si X1,X2,…,Xn son variables aleatorias independientes y si Y1=G1(X1,…,Xr), Y2=G2(Xr+1,…,Xp),…, Ym=Gm(Xk+1,…,Xn), donde Yj, j=1,…,m son funciones de subconjuntos mutuamente excluyentes de X1,X2,…,Xn. Entonces Y1,Y2,…,Ym son variables aleatorias independientes.

41 4.6 Distribución X2 , t y F La distribución X2 es un caso especial de la distribución Gamma. Si consideramos la variable aleatoria Z con distribución normal estándar, entonces la función de distribución de U = Z2, para todo t ≥ 0 está dada por: y su función de densidad

42 Teorema 4.7 Si Z1,…,Zn son variables aleatorias normales estándar, independientes, entonces:
Ejemplo Supongamos que X es una variable aleatoria con función de densidad entonces la función de densidad de X corresponde a la de una Chi-cuadrado con 4 grados de libertad.

43 Teorema 4.8 Si X1,…,Xn son variables aleatorias independientes, cada una con distribución X2 con v1,…,vn grados de libertad, respectivamente, entonces: Teorema 4.9 Sean X1 y X2 variables aleatorias independientes.

44 La Distribución t-Student: Sea Z una variable aleatoria normal estándar, y X una variable que se distribuye Chi-cuadrado con v grados de libertad. Si Z y X son independientes, entonces la variable aleatoria T definida por tiene distribución t-Student con v grados de libertad. La notación usual es Y ~ tv. Siendo su función de densidad

45 La Distribución F de Snedecor: Sean X1 y X2, variables aleatorias Chi-cuadrado con v1 y v2 grados de libertad, respectivamente. Si X1 y X2 son independientes, la variable aleatoria Siendo su función de densidad

46 El valor esperado de F es:
La varianza de F es:

47 4.7 Sumas de variables aleatorias
Si X1,… Xn son variables aleatorias independientes e idénticamente distribuidas, diremos que ellas conforman una muestra aleatoria. Teorema 4.10 Sean X1,…,Xn variables aleatorias independientes e idénticamente distribuidas, con funciones generadoras de momentos MX1(t),…,MXn(t), respectivamente. Si definimos: Entonces la función generadora de momentos de Y es:

48 Ejemplo tenemos que Supongamos que X1,…,Xn son variables aleatorias Bernoulli independientes, idénticamente distribuidas, cada una con parámetro p. Entonces Mxi(t)=q + pet, i=1,…,n. Si definimos:

49 Ejemplo Supongamos que X1,…,Xn son variables aleatorias normales independientes, con medias 1,…,n y varianzas 12,…,n2 respectivamente. Entonces Si definimos Entonces tenemos que

50 Entonces Teorema 4.11 Sean X1,…,Xn variables aleatorias con medias 1,…,n y varianzas 12,…,n2 respectivamente. Definiendo Teorema 4.12 Sean X1,…,Xn variables aleatorias no correlacionadas. Si

51 Teorema 4.13 Sean X1,…,Xn variables aleatorias independientes e idénticamente distribuidas, cada una con media  y varianza 2 . Si

52 4.8 Máximos y mínimos Sean X1,…,Xn, n variables aleatorias independientes e idénticamente distribuidas con función de distribución FX(x). Si ordenamos las variables aleatorias en forma ascendente de acuerdo a su magnitud, podemos definir dos funciones de interés primordial en estadística. Ellas son el máximo y el mínimo, denotadas por: - La función de distribución acumulada del máximo de n variables aleatorias independientes e idénticamente distribuidas es:

53 Si las variables son continuas, podemos obtener la función de densidad del máximo.
- La función de distribución acumulada del Mínimo de n variables aleatorias independientes e idénticamente distribuidas es: Si las variables son continuas, la función de densidad del mínimo es:

54 Ejemplo Supongamos que X1,…,Xn son n variables aleatorias independientes, cada una con distribución exponencial de parámetro >0. La función de densidad del máximo y mínimo respectivamente son: y


Descargar ppt "Variables Multidimensionales"

Presentaciones similares


Anuncios Google