La descarga está en progreso. Por favor, espere

La descarga está en progreso. Por favor, espere

MANUAL DE LABORATORIO DE CÓMPUTO ECONOMETRÍA I MULTICOLINEALIDAD

Presentaciones similares


Presentación del tema: "MANUAL DE LABORATORIO DE CÓMPUTO ECONOMETRÍA I MULTICOLINEALIDAD"— Transcripción de la presentación:

1 MANUAL DE LABORATORIO DE CÓMPUTO ECONOMETRÍA I MULTICOLINEALIDAD
UNIVERSIDAD NACIONAL AGRARIA DE LA SELVA FACULTAD DE CIENCIAS ECONÓMICAS Y ADMINISTRATIVAS DEPARTAMENTO ACADÉMICO DE CIENCIAS ECONÓMICAS MANUAL DE LABORATORIO DE CÓMPUTO ECONOMETRÍA I MULTICOLINEALIDAD Profesor: Barland A. Huamán Bravo 2011

2 ESQUEMA INTRODUCCIÓN PROBLEMAS CON LOS ESTIMADORES MCO DETECCIÓN DEL PROBLEMA POSIBLES SOLUCIONES APLICACIONES

3 1. INTRODUCCIÓN SUPUESTO CLÁSICO 3:
Este supuesto implica dos condiciones: El número de observaciones “n” es mayor que el número de variables explicativas “k”, es decir, “n > k”. No existe relación exacta entre las variables explicativas: no existe colinealidad o multicolinealidad. Formalmente, el rango de la matriz X’X debe ser igual a k (rango completo por columnas).

4 1. INTRODUCCIÓN INCUMPLIMIENTO DEL SUPUESTO 3:
Sucede cuando se incumple alguna de las dos condiciones: El número de observaciones es menor o igual que el número de variables explicativas. Existencia de relación lineal exacta o aproximadamente lineal entre dos o más variables explicativas: colinealidad o multicolinealidad. Esto implica que el rango de la matriz X’X es menor que k, por lo cual X’X no tiene inversa y por ende no es posible calcular los estimadores MCO.

5 1. INTRODUCCIÓN Estos fenómenos son muy raros:
En general, siempre se busca un tamaño de muestra tal que sea mayor que el número de parámetros a estimar. En particular, al estimar por MCO, esto permite obtener menores varianzas de los estimados, pues los grados de libertad son mayores: S2 = e’e / n-k La Multicolinealidad Exacta es un caso teórico. Si bien es cierto no incumple el supuesto clásico 3, la presencia de Multicolinealidad (relación aproximadamente lineal entre variables explicativas, y no exacta), genera problemas de estimación tan importantes que se considera como un caso de incumplimiento del supuesto.

6 1. INTRODUCCIÓN Así, la multicolinealidad no depende de la existencia teórica o real de una relación lineal entre los regresores, sino de la existencia de una relación aproximadamente lineal en la muestra disponible. La multicolinealidad en los datos puede surgir por varias razones: - Tendencias temporales comunes. - Una explicativa es el rezago de otra explicativa que sigue una tendencia. -Algunas explicativas varían juntas porque los datos no fueron recopilados de una base suficientemente amplia. - La multicolinealidad entre las explicativas existe verdaderamente.

7 2. PROBLEMAS CON LOS ESTIMADORES MCO
Los estimadores MCO siguen siendo MELI. En particular, siguen manteniendo sus propiedades porque en estricto no se ha incumplido el supuesto clásico 5 por la presencia de Multicolinealidad (relación aproximadamente lineal entre las explicativas). El R2 no se afecta. Sin embargo, el principal problema de la presencia de Multicolinealidad es que PUEDE GENERAR JUNTO CON OTROS FACTORES que la varianza de los estimadores MCO de los parámetros de las variables colineales sea bastante grande:

8 2. PROBLEMAS CON LOS ESTIMADORES MCO
Debido a que los estimados de las varianzas son grandes, las inferencias se distorsionan, obteniéndose estadísticos calculados menores a los correctos. Por esto, la presencia de multicolinealidad puede conducir muy fácilmente a errores de especificación (incluir variables irrelevantes u omitir variables importantes para la relación).

9 2. PROBLEMAS CON LOS ESTIMADORES MCO
Ejemplo: precisión del estimador puede ser afectado por la colinealidad entre los regresores o por “otros factores” MSD mean square deviation MSD: mean square deviation

10 3. DETECCIÓN DEL PROBLEMA
La presencia de Multicolinealidad se evidencia cuando: - Los signos estimados no son los esperados. - Los estadísticos “t” no son significativos, a pesar de un R2 alto. - Los resultados de la regresión cambian de manera importante cuando una variable explicativa se elimina. Otra forma popular es a través de las correlaciones entre las explicativas. Un valor alto (0,8 ó 0,9 en valor absoluto) del coeficiente de correlación entre dos variables explicativas indicaría la presencia de colinealidad entre ellas. El problema es que esta metodología no permite identificar la presencia de relación lineal entre tres o más variables.

11 3. DETECCIÓN DEL PROBLEMA
Una forma menos común, pero más satisfactoria, para identificar la presencia de multicolinealidad es a través del índice de condición de los datos o número de condición de los datos (condition index o condition number). Este índice o número es igual a la raíz cuadrada del cociente de los autovalores (valores propios) máximo y mínimo de la matriz X’X: Mientras más grande sea el número, mayor la probabilidad de que exista un problema de colinealidad. Besley, Kuh y Welsch (1980) establecen que si es mayor a 20, existen indicios del problema.

12 3. DETECCIÓN DEL PROBLEMA
Otra forma para detectar si la multicolinealidad es dañina podemos construir los factores de inflación de varianza: inversa de matriz de correlaciones entre los regresores: Se basa en la inversa de la matriz de correlaciones de los regresores, pero considerando valores estandarizados de los mismos. Los elementos de la diagonal de la inversa de la matriz de correlaciones se denominan factores de inflación de varianza o VIF. Si se tiene que VIFi >10, entonces se concluye que existe colinealidad dañina. . VIF : variance inflation factor

13 4. POSIBLES SOLUCIONES Existen dos posibles soluciones:
1. Dejar las cosas como están. 2. Incorporar información adicional 1. Dejar las cosas como están Las varianzas altas pueden ser aceptables: estimación de una función de producción Cobb-Douglas: “No es preocupante si el R2 de la regresión es mayor que el R2 de la regresión de cualquier variable independiente contra las otras independientes”. “No es preocupante si los estadísticos t son todos mayores a 2”.

14 4. POSIBLES SOLUCIONES 2. Incorporar mayor información
Existen diversas posibilidades, que deben tomarse en cuenta, incluso si no existe multicolinealidad: Obtener más datos (el incremento de observaciones mejora la precisión del estimador) Formalizar relaciones entre los regresores: Ecuaciones Simultáneas.

15 4. POSIBLES SOLUCIONES Incorporar mayor información
Remover la variable que genera colinealidad: ¿sesgo vs. varianza? Variables omitidas vs. Variables redundantes. Incorporar estimados de otros estudios. Formar un componente principal: aprovecha la información de dos o más regresores que presentan un alto grado de asociación lineal a través de una suma ponderada de los mismos. No se puede identificar por separado el efecto de la cada uno de los regresores sobre la endógena. Se analiza el R2 de la regresión de cada explicativa contra los demás regresores. Si alguno de ellos es mayor al R2 del modelo original, entonces existen indicios de multicolinealidad.

16 5. APLICACIONES Detección El modelo: ¿Presenta los signos correctos?
¿Los parámetros de la regresión son significativos? ¿Qué nos indica la prueba de significancia conjunta? ¿Es dañina la relación que existe entre los regresores “age” y “age^2”?

17 5. APLICACIONES

18 5. APLICACIONES

19 5. APLICACIONES Análisis de “Variance Inflation Factors” (VIFs) mide el nivel de colinealidad entre los regresores de la ecuación. Mide que tanto de la varianza estimada de un regresor se ha incrementado debido a la colinealidad con otros regresores. Se calculan como la división de la varianza estimada de un coeficiente por la varianza estimada de este coeficiente que resulta de una ecuación en la que otros regresores no se incluyeron en la ecuación.

20 5. APLICACIONES VIF Centrado: ratio de la varianza del coeficiente estimado de la regresión original dividido entre la varianza del coeficiente de una ecuación que sólo incluye el regresor y una constante. VIF no centrado considera en el denominador del ratio la varianza del coeficiente estimado cuando se incluye solo el regresor en la ecuación..


Descargar ppt "MANUAL DE LABORATORIO DE CÓMPUTO ECONOMETRÍA I MULTICOLINEALIDAD"

Presentaciones similares


Anuncios Google