Contraste de Hipotesis en Regresion Multiple Errores de Especificacion: Omision de una variable relevante Inclusion de una variable irrelevante
Supuestos del Modelo de Regresion Multiple 1. Modelo de regresion lineal (en los parametros): y = 1 + 2x2 +…+ ßk xk + u 2. Muestreo aleatorio: {(yi, xi); i=1, …, n} muestra aleatoria del modelo poblacional 3. Media condicional de u es cero. El error u, tiene un valor esperado de cero, dado cualquier valor de las variables independientes, E(u| x1, x2, …, xk) = 0 4. Variacion muestral en las variables independientes y no existencia de relacion lineal exacta alguna entre ellas 5. Homocedasticidad o igual varianza de los ui dado cualquier valor de las variables independientes, var(u|x1, …, xk ) = 2
Errores de Especificacion (i) Omision de una variable importante (ii) Inclusion de una variable irelevante Consecuencias de la omision de una variable importante en el modelo verdadero: Modelo Verdadero : Y = 1 + 2 X2 + 3 X3 + u (M1) Modelo Estimado: (Omision de una variable importante) Y = 1 + 2 X2 + v (M2)
Por ejemplo, pensad que la variable salario viene determinada por Log(Sala)=ß1+ ß2 Educ + ß3 Habi + u. (M1) Dado que la variable Habilidad no se observa, decidimos estimar el modelo Log(Sala)=ß1+ ß2 Educ + v, (M2) donde v = ß3 Habi + u. Estimando la pendiente ß2 por MCO en el modelo (M2) Sustituyendo yi por su expresion en el verdadero modelo (M1) se obtiene el siguiente numerador:
donde dm2 es el denominador de donde dm2 es el denominador de . Dividiendo por dm2 , tomando esperanzas condicionales con respecto a los valores de las variables independientes y recordando que E(ui)=0 , obtenemos En general no sera igual a , es decir sera sesgado para . es lo que se llama el sesgo de variables omitidas.
Resumen del sesgo en cuando x3 se omite en (M1) Corr(x2, x3)>0 Corr(x2, x3)<0 ß3>0 Sesgo Positivo Sesgo Negativo ß3<0 En clase discutiremos el ejemplo de la ecuacion de salarios.
Con respecto a la varianza, se puede demostrar que en el modelo (M1) para j=1, 2, 3, donde es el R-cuadrado de regresar xj sobre todas las demas otras variables independientes (e incluyendo un termino constante). En el modelo (M2) Comparad estas varianzas y sacad vuestras propias conclusiones.
Consecuencias de la inclusion de una variable irrelevante en el modelo verdadero: Supongamos que E(y|x2, x3)=E(y|x2)=ß1+ ß2 x2 ; pero que no sabemos si la variable x3 es relevante o no y ante la duda decidimos incluirla en nuestro modelo de regresion a estimar: y = ß1+ ß2 x2 + ß3 x3 + u. ¿Son los estimadores MCO de los parametros de este modelo sesgados o insesgados? ¿Son mas o menos eficientes? ¿Que efecto tiene la inclusion de la variables irrelevante x3 sobre el intervalo de confianza de ß2 ?
Contraste sobre la relevancia de dos nuevas variables adicionales Xl, Xm : Ho: Tienen Xl y Xm un efecto conjunto sobre la variable Y? Test F : H0 : l = 0, m = 0 H1 : l 0, o m 0 (m-k) ( = 2) (R2nuevo - R2viejo) / # regresores adicionales F* = (1 - R2nuevo )/ n-m De forma equivalente Si F* > Fc ==> rechazar H0
m # variables restringidas Contraste F en terminos de los diferentes R2 (R2n - R2v) / # de variables adicionales F = (1 - Rn2) / gl del modelo nuevo Contraste de las restriciones: m # variables restringidas R2nr - R2r / m F = 1 - R2nr / n-k
Modelo Viejo (v)
Modelo Nuevo (n) H0 : efecto conjunto de X5 y X6, i.e., 5 = 6 = 0
Contraste de WALD 1 H0 : efecto conjunto de X5 y X6, i.e., 5 = 6 = 0 (0.822750 - 0.601277) /2 0.017725 F* = (R2n - R2v) / #restriciones (1-R2n) / n-k = (1 - 0.822750) / 10 0.1107365 = 6.247 Fc0.05, 2, 10 = 4.10 Como F* > Fc ==> rechazar H0 2 H0 : no efecto de X5 i.e., 5 = 0 Como t* < tc ==> no rechazar H0
(R2nr - R2r) / k-m (0.822632 - 0.822750) /-1 F* = = 1-R2nr/ n-k (1-0.822625) / (16- 6) Fc 0.05, 1, 10 = 4.96 = 0.00643
Ejemplo sobre como contrastar la estabilidad o constancia de los parametros del modelo (“Test de Chow ”) H0 : no cambio estructural o constancia de los parametros H1 : si lo hay Procedimiento para llevar a cabo el contraste: 1. Dividir la muestra de N observaciones en dos grupos - grupo1 consistente en las primeras n1 observaciones. - group 2 consistente en las restantes n2 = N - n1 observaciones.
2. MCO en las dos submuestras separadamente para obtener SCR1 y SCR2 3. MCO en toda la muestra con todas las N observaciones para obtener SCRR 4. Calcular F* = (SCRR - SCR1 - SCR2) / k (SCR1 + SCR2) / N-2k 5. Calcular F* y Fc, k, N-2k Si F* > Fc ==> rechazar H0 En este caso habria un cambio estructural en la muestra.
Cambio Estructural:Test de CHOW
Scatter plot de las variables Income y Savings
Toda la muestra SCRR
Y = 1 + 2X + u1 Sub-muestra n1 SCR1
Y = 1 + 2X +u2 Sub-muestra n2 SCR2 Conclusion: F* > Fc ==> rechazar H0
Resultados Empiricos: F* = (SCRR - SCR1 - SCR2) / k (SCR1 + SCR2) / N-2k (.1891 - .1412 -.1660)/ 2 = (.1412 + .1660) / (18-2*2) Fc (, k, n-2k) = ? Fc0.01 =5.56; Fc0.10=2.52 Fc0.05=3.34; F* = 5.05
Creacion de variables dummies dummy = 0 para 1946-1954 dummy = 1 para 1955-1963
Contraste de Cambio Estructural usando variables dummies Mira el estadistico t Var dummy generada de la forma anterior
Cambia la constante? Cambia la pendiente?
Como leer los resultados de la regresion con variables dummies: Para el periodo de 1946-1954: Savings = -0.2662 + 0.0470 Income Para el periodo de 1955-1963: savings = (-0.2662 - 1.4839) + (0.0470 + 0.1034) = -1.7501 + 0.1504 Income