Descargar la presentación
La descarga está en progreso. Por favor, espere
1
SUPUESTOS DEL MODELO DE MINIMOS CUADRADOS
El modelo de MCO supone: 1. Los estimadores tienen una media y una varianza que no está relacionada con los errores del modelo. 2. Las variables independientes no tienen ninguna relación entre si 3. Los errores de la estimación tienen una distribución normal con media cero y una varianza constante.
2
PRUEBAS DE DIAGNOSTICO
Tienen la intención de verificar el cumplimiento de los supuestos Estas pruebas están en el contexto de las pruebas de Fisher Sólo se plantea la hipótesis nula: se cumple con el supuesto
3
Klein y Goldberg (1955) analizan la relación entre el consumo (c), los salarios (w) otros ingresos que no provienen de los salarios (p) y el ingreso agrícola (a) para los años de 1928 a Sus resultados fueron: Ct = wt pt at (error estándar) (valor de t) R2 = 0.95 F= F tablas 5.29 Aunque la R2 es alta y también la F sólo una variable estadísticamente distinta de cero Los autores concluyen que no es posible analizar los efectos en el consumo que provienen de los distintos tipos de ingresos porque éstos se encuentran de alguna manera relacionados entre si.
4
MULTICOLINEALIDAD PERFECTA
Se dice que existe multicolinealidad perfecta cuando las variables independientes son linealmente dependientes entre si por ejemplo X2 = X3 + 2X4 El primer efecto de esta situación es que no sería posible invertir la matriz (X´X)-1 y sería evidente el problema. Sin embargo es raro que se presente la multicolinealidad perfecta lo más probable es que la relación entre las variables sea aproximada pero no necesariamente perfecta.
5
CONSECUENCIAS DE LA MULTICOLINEALIDAD
1. Cuando existe cierta dependencia entre las variables algunos elementos de la matriz (X´X)-1 son muy grandes. Como la matriz de covarianzas se calcula s2 (X´X)-1 entonces las varianzas, los errores estándar y las covarianzas pueden ser muy grandes. La variación entonces es muy amplia, los intervalos de confianza muy amplios y por tanto la información que proviene del modelo puede ser muy imprecisa. 2. Si los errores estándar son muy grandes entonces se llega a la conclusión de que los coeficientes estimados no son estadísticamente distintos de cero (t muy chicas) a pesar de que el modelo tiene R2 y F altas. Esto quiere decir que las variables no están aportando suficiente información para estimar los efectos por separad
6
3. Los coeficientes estimados pueden ser muy sensibles cuando se agregan o quitan estimaciones o cuando se elimina una variable que aparentemente no es importante.
7
IDENTIFICANDO EL PROBLEMA DE LA MULTICOLINEALIDAD
Calcular la correlación entre las variables una correlación mayor de 0.8 o 0.9 entre dos variables puede ser un indicador de una relación entre ellas. Calcular regresiones auxiliares cada una de las variables independientes en función del resto Por ejemplo Xk = b1X1 + b2 X bk-1Xk-1 + v Si la R2 es alta es posible la presencia de multicolinealidad
8
Variance inflation factor (VIF)
Se pueden calcular una diferente VIF, para cada variable independiente. Calcular regresiones auxiliares cada una de las variables independientes en función del resto. Por ejemplo Xk = b1X1 + b2 X bk-1Xk-1 + v
9
Se calcula el factor VIF
con R² para cada regresión auxiliar Si VIF es mayor de 10 hay multicolinealidad
10
La tolerancia definida como 1/VIF, se usa como una medida de la colinealidad.
Un valor de tolerancia menor que 0.1 se compara con un VIF de 10. Esto significa que se puede considerar a esta variable como una combinación lineal de las otras variables independientes.
11
SOLUCIONES Un problema de la multicolinealidad es que no tiene suficiente información en cuando a los efectos individuales de las variables por tanto una posible solución es obtener más información e incluirla. No siempre es posible en las variables económicas. Eliminar alguna de las variables que son linealmente dependientes entre si Transformar las variables dividiendo todas las variables por la que se sospecha es la causa de la muticolinealidad
12
Ejemplo cars.dta regress mpg eng cyl wgt test eng cyl
Regresiones auxiliares regress cyl eng wgt Guardar las R2 para comparar scalar r1= e(r2) regress eng wgt cyl scalar r2= e(r2) regress wgt eng cyl scalar r3= e(r2) scalar list r1 r2 r3 di 1/( )
13
regress mpg eng cyl wgt Hacer la prueba con el comando vif
display (1/( ))
14
Otro ejemplo Empleamos la base de datos “elemapi2.dta”, que contiene información sobre el desempeño académico de la educación básica en Estados Unidos. Vamos a demostrar que el desempeño académico (api00) está en función del porcentaje de alumnos que recibe desayunos gratuitos (meals), están aprendiendo ingles (ell) y del porcentaje de maestros con credenciales nuevas.
15
regress api00 meals ell emer
Calculamos el factor de inflación de la varianza vif En este caso el VIF fue bastante bueno, sin embargo analicemos un caso con un VIF preocupante.
16
Qué sucede si aumentamos variables?
regress api00 acs_k3 avg_ed grad_sch col_grad some_col vif En este caso hay multicolinealidad porque avg_ed, grad_sch y col_grad están correlacionadas. Estas variables son redundantes, ya que si sabemos el grado de estudios de los padres (grad_sch) y el número de padres con grado universitario (col_grad) es posible obtener el promedio de estudios de los padres (avg_ed).
17
Un comando alternativo para la colinearidad es “collin”, este comando puede ser ejecutado sin necesidad de realizar una regresión; solo se requieren las variables independientes para este comando. Si su versión de STATA no cuenta con el comando “collin”, puede descargarlo del internet con el comando “findit collin”
18
De la matriz de las X Sea Y = AX Un Eigenvector. Es un vector distinto de cero tal que AX = λX donde λ es un escalar llamado eigenvalue. Stata nos da el valor de los eigenvalue
19
Grandes valores de los eigenvalues indican no correlación entre las variables
Un eigenvalue igual a cero implica perfecta collinealidad entre las variables independientes Pequeños valores de los eigenvalues implican multicolinealidad El problema que es pequeño o grande? Stata calcula el índice condicional
20
Condition index Es la raíz cuadrada de la razón entre el valor del más alto eigenvalue y cada uno de los eigenvalues. La regla Condition index mayores a 10 indican multicolinealidad
21
coldiag2 acs_k3 avg_ed grad_sch col_grad some_col
En este caso la multicolinealidad surgió debido a que incorporamos muchas variables que miden la misma cosa, la educación de los padres por ejemplo.
22
Aplicando la solución de retirar variables explicativas; en este caso retiramos la variable avg_ed,
regress api00 acs_k3 grad_sch col_grad some_col vif Es posible ver una mejora en el VIF Debido a que se redujo para las variables sobre la educación de los padres (grad_sch col_grad) La colinearidad estaba “inflando” a los errores estándar, incluso grad_sch no era significativa y ahora lo es.
Presentaciones similares
© 2025 SlidePlayer.es Inc.
All rights reserved.