La descarga está en progreso. Por favor, espere

La descarga está en progreso. Por favor, espere

Función de con- sumo para Estados Unidos,

Presentaciones similares


Presentación del tema: "Función de con- sumo para Estados Unidos,"— Transcripción de la presentación:

1 Función de con- sumo para Estados Unidos, 1947-2000
EJEMPLO 10.2 Función de con- sumo para Estados Unidos, Fuente: Véase la tabla 7.12. A continuación consideraremos un grupo concreto de datos sobre gasto de consumo real (C), ingreso personal disponible real (Yd), riqueza real (W) y tasa de interés real (I) para Estados Uni- dos de 1947 a Los datos originales se presentan en la tabla 10.7. TABLA 10.7 Gasto de consumo en Estados Unidos del periodo Año 1947 C 976.4 Yd W I 1948 998.1 1 090 1949 1950 1951 1 227 1952 1953 1954 1 344 1955 1956 1957 1958 1 393 1959 1960 1961 1 720 1962 1963 1 684 1964 1965 2 131 1966 1967 1968 1969 1970 2 630 1971 1972 1973 1974 1975 1976 1977 1978 1979 15 340 1980 3 193 3 658 1981 3 236 1982 1983 1984 1985 1986 1987 1988 (continúa)

2 EJEMPLO 10.2 TABLA 10.7 (continuación) Continuación Año C Yd W I 1989
1990 1991 5 033 1992 1993 1994 1995 1996 1997 3.12 1998 1999 6 320 2000 Empleamos lo siguiente para el análisis: ln Ct = β1 + β2 ln Ydt + β3 ln Wt + β4 It + ut donde ln significa logaritmo. (10.6.6) En este modelo, los coeficientes β2 y β3 dan las elasticidades del ingreso y la riqueza, respec- tivamente (¿por qué?), y β4 da la semielasticidad (¿por qué?). Los resultados de la regresión (10.6.6) se presentan en la siguiente tabla: Variable dependiente: LOG (C) Método: Mínimos cuadrados Muestra: Observaciones incluidas: 54 Coeficiente Error estándar Estadístico t Probabilidad C LOG (YD) LOG (RIQUEZA) INTERÉS 0.0000 0.0009 R cuadrada R cuadrada ajustada Error estándar de la regresión Suma de cuadrados residual Log verosimilitud Estadístico F Probabilidad (estadístico F) Media de la variable dependiente Desviación estándar de la variable dependiente Criterio de información de Akaike Criterio de Schwarz Criterio de Hannan-Quinn Estadístico de Durbin-Watson Nota: LOG significa logaritmo natural. Los resultados demuestran que todos los coeficientes estimados son muy significativos desde el punto de vista estadístico, pues sus valores p son muy pequeños. Los coeficientes estimados se interpretan como sigue: la elasticidad del ingreso es ≈ 0.80, lo que indica que, cuando las demás variables se mantienen constantes, si el ingreso aumenta 1%, la media del gasto de con-

3 Detección de la multicolinealidad
sumo aumenta alrededor de 0.8%. El coeficiente de riqueza es ≈ 0.20, lo que significa que si la riqueza aumenta 1%, la media del consumo se incrementa sólo 0.2%, de nuevo cuando las demás variables se mantienen constantes. El coeficiente de la variable tasa de interés indica que, a medida que la tasa de interés aumenta un punto porcentual, el gasto de consumo disminuye 0.26%, ceteris paribus. Todas las regresoras tienen signos que concuerdan con las expectativas previas, es decir, el ingreso y la riqueza tienen efecto positivo en el consumo, pero la tasa de interés produce un efecto negativo. ¿Hay que preocuparse por el problema de la multicolinealidad en este caso? Al parecer no, porque todos los coeficientes tienen los signos correctos, cada coeficiente es muy significativo estadísticamente en lo individual y el valor F también es estadísticamente muy significativo, lo que indica que, en conjunto, todas las variables tienen efecto significativo en el gasto de con- sumo. El valor R2 también es muy alto. Por supuesto, casi siempre existe cierto grado de colinealidad entre las variables económicas. Con tal de que no sea exacto se pueden estimar los parámetros del modelo. Por el momento, lo único que se puede decir es que, en el presente ejemplo, la colinealidad, si la hay, no parece muy marcada. Sin embargo, en la sección 10.7 presentamos algunas pruebas de diagnóstico para detectar la colinealidad y reexaminar la función de consumo de Estados Unidos para determinar si le afecta el problema de la colinealidad. Detección de la multicolinealidad Después de estudiar las características y las consecuencias de la multicolinealidad, el interrogante natural es: ¿cómo conocer la presencia de colinealidad en cualquier situación dada, en especial en modelos con más de dos variables explicativas? Aquí es útil la advertencia de Kmenta: La multicolinealidad es una cuestión de grado y no de clase. La distinción importante no es entre presencia o ausencia de multicolinealidad, sino entre sus diferentes grados. Como la multicolinealidad se refiere a la condición de las variables explicativas que son no estocásticas por supuestos, es una característica de la muestra y no de la población. Por consiguiente, no es necesario “llevar a cabo pruebas sobre multicolinealidad”, pero, si se desea, es posible medir su grado en cualquier muestra determinada.17 Como la multicolinealidad es en esencia un fenómeno de tipo muestral que surge de infor- mación sobre todo no experimental recopilada en la mayoría de las ciencias sociales, no hay un método único para detectarla o medir su fuerza. Lo que se tiene en realidad son ciertas reglas prácticas, algunas informales y otras formales, pero todas reglas prácticas. Consideremos algu- nas de ellas. 1. Una R2 elevada pero pocas razones t significativas. Como ya mencionamos, es un sín- toma “clásico” de multicolinealidad. Si R2 es alta, es decir, está por encima de 0.8, la prueba F, en la mayoría de los casos, rechazará la hipótesis de que los coeficientes parciales de pendiente son simultáneamente iguales a cero, pero las pruebas t individuales mostrarán que ningún coefi- ciente parcial de pendiente, o muy pocos, son estadísticamente diferentes de cero. Demostramos lo anterior con claridad en el ejemplo de consumo-ingreso-riqueza. Aunque este diagnóstico es razonable, su desventaja es que “es demasiado fuerte, en el sen- tido de que la multicolinealidad se considera dañina únicamente cuando no se puede separar la totalidad de las influencias de las variables explicativas sobre Y ”.18

4 2. Altas correlaciones entre parejas de regresoras
2. Altas correlaciones entre parejas de regresoras. Otra regla práctica recomendable con- siste en observar el coeficiente de correlación de orden cero o entre dos regresoras. Si éste es alto, digamos, superior a 0.8, la multicolinealidad es un problema grave. La desventaja con este criterio es que, aunque las altas correlaciones de orden cero pueden sugerir la presencia de coli- nealidad, no es necesario que dichas correlaciones sean altas para tener colinealidad en un deter- minado caso específico. En términos un poco técnicos: las correlaciones de orden cero elevadas son una condición suficiente pero no necesaria para la existencia de multicolinealidad, debido a que puede existir a pesar de que las correlaciones de orden cero o correlaciones simples sean comparativamente bajas (es decir, inferiores a 0.50). Para apreciar esta relación, suponga un modelo con cuatro variables: Yi = β1 + β2 X2i + β3 X3i + β4 X4i + ui y suponga que X4i = λ2 X2i + λ3 X3i donde λ2 y λ3 son constantes, sin ser las dos iguales a cero. Obvio, X4 es una combinación lineal exacta de X2 y X3, que da R2 = 1, el coeficiente de determinación en la regresión de X4 sobre X2 y X3. 4.23 Ahora recordemos la fórmula (7.11.5) del capítulo 7 para escribir R2 r42 + r43 − 2r42r43r23 2 2 4.23 = (10.7.1) 1 − r 2 23 Pero, como R2 = 1 por la existencia de colinealidad perfecta, obtenemos 4.23 r 2 r 2 1 = 2r42r43r23 (10.7.2) 1 − r 2 23 No es difícil ver que (10.7.2) se satisface con r4 2 = 0.5, r4 3 = 0.5 y r2 3 = −0.5, que no son va- lores muy altos. Por consiguiente, en los modelos donde hay más de dos variables explicativas, la correlación simple o de orden cero no proporciona una guía infalible sobre la presencia de multicolinealidad. Claro que si sólo existen dos variables explicativas, bastarán las correlaciones de orden cero. 3. Examen de las correlaciones parciales. Debido al problema recién descrito, que se basa en correlaciones de orden cero, Farrar y Glauber sugieren que deben observarse, en lugar de ellas, los coeficientes de correlación parcial.19 De esta forma, en la regresión de Y sobre X2, X3 y X4, si se encuentra que R2 es muy elevada pero r 2 , r 2 y r 2 son comparativamente bajas, esto puede sugerir que las variables X2, X3 y X4 están muy intercorrelacionadas y que por lo menos una de estas variables es superflua. Si bien puede ser útil un estudio de correlaciones parciales, nada garantiza que proporcionen una guía infalible sobre multicolinealidad, pues puede suceder que tanto R2 como todas las co- rrelaciones parciales sean lo bastante altas. Sin embargo, y tal vez más importante, C. Robert Wichers mostró20 que la prueba de correlación parcial de Farrar-Glauber es ineficaz en el sentido D.E. Farrar y R.R. Glauber, “Multicollinearity in Regression Analysis: The Problem Revisited”, Review of Economics and Statistics, vol. 49, 1967, pp “The Detection of Multicollinearity: A Comment”, Review of Economics and Statistics, vol. 57, 1975, pp

5 de que una determinada correlación parcial puede ser compatible con diferentes patrones de multicolinealidad. La prueba de Farrar-Glauber también recibió fuertes críticas de T. Krishna Kumar,21 John O’Hagan y Brendan McCabe.22 4. Regresiones auxiliares. Como la multicolinealidad surge porque una o más de las regre- soras son combinaciones lineales exactas o aproximadas de las demás regresoras, una forma de determinar cuál variable X está relacionada con las demás variables X es efectuar la regre- sión de cada Xi sobre las variables X restantes y calcular la R2 correspondiente, que se designa i ; cada una de estas regresiones se denomina regresión auxiliar, auxiliar a la regresión princi- pal de Y sobre las X. Así, conforme a la relación entre F y R2 establecida en (8.4.11), la variable R2 R2 Fi = xi ·x2 x3 ···xk (k − 2) R2 (10.7.3) 1 − xi ·x2 x3 ···xk (n − k + 1) sigue la distribución F con k − 2 y n − k + 1 gl. En la ecuación (10.7.3), n representa el ta- maño de la muestra, k representa el número de variables explicativas incluyendo el intercepto y R2 xi ·x2 x3 ···xk es el coeficiente de determinación en la regresión de la variable Xi sobre las variables X restantes.23 Si la F calculada excede a la Fi crítica en el nivel de significancia seleccionado, se dice que la Xi particular es colineal con las demás X; si no excede a la Fi crítica, se dice que ésta no es colineal con las demás X, en cuyo caso se puede mantener la variable en el modelo. Si Fi es estadísticamente significativa, aún hay que decidir si la Xi en consideración debe eliminarse del modelo. Analizaremos este aspecto con más detalle en la sección 10.8. Sin embargo, este método no carece de desventajas, pues . . . si la multicolinealidad comprende sólo unas cuantas variables, de forma que las regresiones auxi- liares no sufran de multicolinealidad extensa, los coeficientes estimados pueden revelar la naturaleza de la dependencia lineal entre las regresoras. Por desgracia, si existen diversas asociaciones lineales complejas, este ejercicio de ajuste de curva puede no tener gran valor, pues será difícil identificar las interrelaciones separadas.24 En lugar de probar formalmente todos los valores R2 auxiliares, se puede adoptar la regla práctica de Klein, que sugiere que la multicolinealidad puede ser un problema complicado sola- mente si la R2 obtenida de una regresión auxiliar es mayor que la R2 global, es decir, si se obtiene de la regresión de Y sobre todas las regresoras.25 Por cierto, al igual que todas las demás reglas prácticas, ésta debe utilizarse con buen criterio. 5. Valores propios e índice de condición. Mediante EViews y Stata podemos calcular los valores propios y el índice de condición para diagnosticar la multicolinealidad. No analizare- mos aquí el tema de los valores propios, pues implicaría abordar temas de álgebra matricial, fuera “Multicollinearity in Regression Analysis”, Review of Economics and Statistics, vol. 57, 1975, pp “Tests for the Severity of Multicollinearity in Regression Analysis: A Comment”, Review of Economics and Statistics, vol. 57, 1975, pp 23 Por ejemplo, R 2 se obtiene mediante la regresión de X2i de la siguiente manera: X2i = a1 + a3 X3i + a4 X4i + ··· + ak Xki + uˆi . George G. Judge, R. Carter Hill, William E. Griffiths, Helmut Lütkepohl y Tsoung-Chao Lee, Introduction to the Theory and Practice of Econometrics, John Wiley & Sons, Nueva York, 1982, p. 621. Lawrence R. Klein, An Introduction to Econometrics, Prentice-Hall, Englewood Cliffs, Nueva Jersey, 1962, p x2

6 k = Valor propio mínimo R2 340 Parte Dos
Flexibilización de los supuestos del modelo clásico del alcance de este libro. Sin embargo, a partir de estos valores propios puede derivarse lo que se conoce como número de condición k, definido como Valor propio máximo k = Valor propio mínimo y el índice de condición (IC), definido como Valor propio máximo Valor propio mínimo = IC = k Entonces tenemos esta regla práctica: Si k está entre l00 y 1 000, existe una multicolinealidad que va de moderada a fuerte, mientras que si excede de 1 000, existe multicolinealidad grave. De otro modo, si el IC ( = √k) está entre 10 y 30, hay multicolinealidad entre moderada y fuerte, y si excede de 30, una multicolinealidad grave. Para el ejemplo ilustrativo del apéndice 7A.5, el valor propio más pequeño es y el valor propio más grande es , por lo que k = /3.786, o alrededor de Por tanto, IC = √49.53 = Tanto k como IC indican que no existe un problema grave de colinea- lidad. Por cierto, observe que un valor propio bajo (en relación con el valor propio máximo) es, por lo general, indicativo de dependencias casi lineales en los datos. Algunos autores consideran que e1 índice de condición es el mejor diagnóstico de multi- colinealidad disponible. Sin embargo, esta opinión no es muy aceptada. Así, el IC es sólo una regla práctica, quizá un poco más compleja. Para mayores detalles, el lector puede consultar las referencias.26 6. Tolerancia y factor de inflación de la varianza. Ya vimos el FIV y la TOL. Conforme R2 j —el coeficiente de determinación en la regresión de la regresora Xj sobre las regresoras res- tantes del modelo— se aproxima a la unidad, es decir, conforme se incrementa la colinealidad de Xj con las demás regresoras, FIV también aumenta, y en el límite puede ser infinito. Algunos autores utilizan, por consiguiente, el FIV como indicador de la multicolinealidad: entre mayor es el valor del FIVj, mayor “problema” o colinealidad tiene la variable Xj. ¿Pero, cuánto debe ascender el FIV antes de que una regresora se convierta en un problema? Como regla práctica, si el FIV de una variable es superior a 10 (esto sucede si R2 excede de 0.90), se dice que esa variable es muy colineal.27 j Desde luego, puede utilizarse TOLj como medida de la multicolinealidad, en vista de su estre- cha conexión con FIVj. Mientras más cerca esté TOLj de cero, mayor será el grado de colineali- dad de esa variable respecto de las demás regresoras. Por otra parte, mientras más cerca esté TOLj de 1, mayor será la evidencia de que Xj no es colineal con las demás regresoras. El FIV (o tolerancia) como medida de colinealidad no está libre de crítica. Como indica (10.5.4), var (βˆj ) depende de tres factores: σ 2, x2 y FIVj. Un FIV alto se contrarresta por una σ 2 baja o una x2 alta. De otra forma: un FIV alto no es condición necesaria ni suficiente j j para obtener varianzas y errores estándar altos. Por consiguiente, la alta multicolinealidad, como la mide un FIV alto, puede no necesariamente ocasionar errores estándar altos. En todo este aná- lisis, los términos alto y bajo son relativos. 7. Diagrama de dispersión. Es una buena práctica usar un diagrama de dispersión para ver cómo se relacionan las diversas variables de un modelo de regresión. La figura presenta el Véase sobre todo D.A. Belsley, E. Kuh y R.E. Welsch, Regression Diagnostics: Identifying Influential Data and Sources of Collinearity, John Wiley & Sons, Nueva York, 1980, capítulo 3. Sin embargo, este libro no es para principiantes. Véase David G. Kleinbaum, Lawrence L. Kupper y Keith E. Muller, Applied Regression Analysis and Other Multivariate Methods, 2a. ed., PWS-Kent, Boston, Massachusetts, 1988, p. 210.

7 Capítulo 10 Multicolinealidad: ¿qué pasa si las regresoras están correlacionadas? FIGURA 10.4 Diagrama de dispersión de los datos del ejemplo 10.2. 4 000 6 000 –10 –5 0 5 6 000 4 000 2 000 C 6 000 4 000 2 000 Yd 40 000 W 20 000 5 I –5 –10 6 000 4 000 diagrama de dispersión del ejemplo de consumo analizado en la sección anterior (ejemplo 10.2). Se trata de un diagrama de cuatro por cuatro cuadros porque hay cuatro variables en el modelo, una variable dependiente (C) y tres variables explicativas: ingreso personal disponible real (Yd), riqueza real (W) y tasa de interés real (I). Primero considere la diagonal principal, de la esquina superior izquierda a la esquina inferior derecha. No hay puntos de dispersión en estos cuadros en la diagonal principal. Si los hubiera, tendrían un coeficiente de correlación de 1, pues las gráficas serían de una variable dada sobre sí misma. Los cuadros fuera de la diagonal muestran intercorrelaciones entre las variables. Por ejemplo, el cuadro de riqueza (W) muestra que la riqueza y el ingreso están muy correlacionados (el coeficiente de correlación entre los dos es 0.97), pero no de manera perfecta. Si tuvieran co- rrelación perfecta (es decir, si tuvieran un coeficiente de correlación de 1), no habríamos podido estimar la regresión (10.6.6) porque habría una relación lineal exacta entre riqueza e ingreso. El diagrama de dispersión también muestra que la tasa de interés no está muy correlacionada con las otras tres variables. Como la función de diagrama de dispersión se incluye ahora en varios programas estadísticos, este diagnóstico debe tomarse en consideración junto con los que estudiamos antes. No obstante, hay que recordar que las correlaciones simples entre parejas de variables pueden no ser un indi- cador definitivo de colinealidad, como ya señalamos. Para concluir la detección de la multicolinealidad, reiteramos que los diversos métodos son en esencia “expediciones de pesca”, pues no puede decirse cuáles funcionan en una aplica- ción particular. Sin embargo, no se puede hacer mucho al respecto, pues la multicolinealidad es un problema específico de una muestra dada sobre la cual el investigador puede no tener mucho control, sobre todo si los datos son no experimentales por naturaleza, como es lo común para los investigadores de las ciencias sociales. Nuevamente, como una parodia de multicolinealidad, Goldberger cita diversas formas de detectar la micronumerosidad, como el desarrollo de valores críticos del tamaño de la muestra, n*, tales que la micronumerosidad es un problema sólo si el tamaño real de la muestra n es más pequeño que n*. Lo importante de la parodia de Goldberger es destacar que el tamaño pequeño de la muestra y la falta de variabilidad en las variables explicativas pueden ocasionar problemas por lo menos tan graves como los debidos a la multicolinealidad.

8 Medidas correctivas No hacer nada Procedimientos de reglas prácticas
¿Qué puede hacerse si la multicolinealidad es grave? Hay dos posibilidades: 1) no hacer nada o seguir algunas reglas prácticas. No hacer nada Blanchard expresa de la siguiente manera la corriente de pensamiento que aboga por “no hacer nada”:28 Cuando los estudiantes efectúan por primera vez la regresión de mínimos cuadrados ordinarios (MCO), el primer problema que suelen afrontar es el de la multicolinealidad. Muchos concluyen que hay algo malo con los MCO; otros recurren a nuevas y con frecuencia creativas técnicas a fin de darle la vuelta al problema. Pero eso está mal. La multicolinealidad es la voluntad de Dios, no un problema con los MCO ni con la técnica estadística en general. Lo que Blanchard afirma es que la multicolinealidad es en esencia un problema de deficiencia de datos (de nuevo, micronumerosidad), y en algunas ocasiones no hay opción respecto de los datos disponibles para el análisis empírico. Asimismo, no es que todos los coeficientes en un modelo de regresión sean estadísticamente insignificantes. Al contrario, aunque no se puedan estimar uno o más coeficientes de regresión con gran precisión, es posible calcular una combinación lineal de ellos (es decir, una función es- timable) con relativa eficiencia. Como vimos en (10.2.3), α se calcula de forma única, aunque no puedan estimarse sus dos componentes dados ahí de manera individual. Algunas veces esto es lo mejor que se puede hacer con un determinado conjunto de datos.29 Procedimientos de reglas prácticas Se pueden intentar las siguientes reglas prácticas para abordar el problema de la multicolineali- dad; el éxito depende de la gravedad de la multicolinealidad. Información a priori. Suponga que consideramos el modelo Yi = β1 + β2 X2i + β3 X3i + ui donde Y = consumo, X2 = ingreso y X3 = riqueza. Como ya mencionamos, las variables ingreso y riqueza tienden a ser muy colineales. Pero suponga que, a priori, creemos que β3 = 0.10β2; es decir, la tasa de cambio del consumo respecto de la riqueza es una décima parte de la correspon- diente respecto del ingreso. Podemos entonces efectuar la siguiente regresión: Yi = β1 + β2 X2i β2 X3i + ui = β1 + β2 Xi + ui donde Xi = X2i X3i. Una vez obtenido βˆ2 podemos estimar βˆ3 a partir de la relación postu- lada entre β2 y β3. ¿Cómo obtener información a priori? Puede provenir de un trabajo empírico anterior, en donde el problema de colinealidad resultó ser menos grave o de la teoría relevante que soporta

9 el campo de estudio. Por ejemplo, en la función de producción tipo Cobb-Douglas (7.9.1), si es- peramos que prevalezcan los rendimientos constantes a escala, entonces (β2 + β3) = 1, en cuyo caso podemos efectuar la regresión (8.6.14), con la regresión de la razón producto-trabajo sobre la razón capital-trabajo. Si existe colinealidad entre el trabajo y el capital, como suele ser el caso en la mayor parte de la información muestral, dicha transformación puede reducir o eliminar el problema de colinealidad. Pero es preciso hacer una advertencia aquí respecto de la imposición de esas restricciones a priori, “. . . pues en general se desean probar las predicciones a priori de la teoría económica en lugar de imponerlas simplemente sobre los datos para los cuales pueden no ser válidas”.30 Sin embargo, sabemos, de la sección 8.6, cómo probar explícitamente la validez de tales restricciones. Combinación de información de corte transversal y de series de tiempo. Una variante de la técnica de información externa o a priori es la combinación de datos de corte transversal y de series de tiempo, conocida como mezcla de datos. Suponga que deseamos estudiar la de- manda de automóviles en Estados Unidos y que tenemos información de series de tiempo sobre el número de automóviles vendidos, su precio promedio y el ingreso del consumidor. Además, suponga que ln Yt = β1 + β2 ln Pt + β3 ln It + ut donde Y = número de automóviles vendidos, P = precio promedio, I = ingreso y t = tiempo. El objetivo es estimar la elasticidad precio β2 y la elasticidad ingreso β3. En la información de series de tiempo, las variables precio e ingreso tienden a ser muy colinea- les. Por consiguiente, si deseamos efectuar la anterior regresión, debemos enfrentar el problema usual de multicolinealidad. Tobin sugiere una salida a esto.31 Sostiene que si hay información de corte transversal (por ejemplo, información generada a través de paneles de consumidores o estudios sindicados realizados por varias agencias privadas y estatales), puede obtenerse una estimación relativamente confiable de la elasticidad ingreso β3, pues, con tal información, que está en un punto en el tiempo, los precios no varían mucho. Sea βˆ3 la elasticidad ingreso estimada a partir de los datos de corte transversal. Con esta estimación, la anterior regresión de series de tiempo se escribe como Y ∗ donde Y ∗ = ln Y − βˆ3 ln I, es decir, Y ∗ representa ese valor de Y después de eliminarle el efecto del ingreso. Ahora se puede obtener una estimación de la elasticidad precio β2 de la regresión anterior. Aunque es una técnica atractiva, la mezcla de datos de series de tiempo y de corte transversal de esta forma puede crear problemas de interpretación porque se supone implícitamente que la elasticidad ingreso estimada a partir de datos de corte transversal es igual a la que se habría obte- nido a partir de un análisis puro de series de tiempo.32 Sin embargo, se ha empleado esta técnica en muchas aplicaciones y es en particular valiosa en situaciones en donde las estimaciones de corte transversal no varían sustancialmente de una sección transversal a otra. Un ejemplo de esta técnica se encuentra en el ejercicio Eliminación de una(s) variable(s) y el sesgo de especificación. Al enfrentar el problema de multicolinealidad grave, una de las soluciones “más simples” consiste en omitir del modelo t = β1 + β2 ln Pt + ut

10 Yt − Yt −1 = β2( X2t − X2,t −1) + β3( X3t − X3,t −1) + vt
una de las variables colineales. Así, en el ejemplo consumo-ingreso-riqueza, al omitir la variable riqueza, obtenemos la regresión (10.6.4), la cual muestra que mientras en el modelo original la variable ingreso no era estadísticamente significativa, ahora se vuelve “altamente” significativa. Sin embargo, al eliminar una variable del modelo se puede incurrir en un sesgo de especifica- ción o error de especificación. El sesgo de especificación surge de la especificación incorrecta del modelo utilizado en el análisis. Así, si la teoría económica afirma que tanto el ingreso como la riqueza deben incluirse en el modelo que explica el gasto de consumo, al eliminar la variable riqueza se incurriría en un sesgo de especificación. Aunque estudiaremos el tema del sesgo de especificación en el capítulo 13, recuerde la idea general sobre éste dada en la sección 7.7. Si el modelo verdadero es Yi = β1 + β2 X2i + β3 X3i + ui pero se ajusta de manera errónea el modelo Yi = b1 + b12 X2i + uˆi se demuestra que (véase el apéndice 13A.1) E(b12) = β2 + β3b32 (10.8.1) (10.8.2) donde b3 2 = coeficiente de la pendiente en la regresión de X3 sobre X2. Por consiguiente, es obvio de (10.8.2) que b12 será una estimación sesgada de β2 en la medida en que b32 sea diferente de cero (se supone que β3 es diferente de cero; en caso contrario, no tendría sentido incluir X3 en el modelo original).33 Claro está que si b32 fuera cero, para empezar no habría problema de multicolinealidad. También es claro de (10.8.2) que si b3 2 y β3 son positivas (o ambas negativas), E(b1 2) será mayor que β2; por tanto, en promedio, b12 sobreestimará a β2, para ocasionar un sesgo positivo. De la misma forma, si el producto b3 2β3 es negativo, en promedio, b12 subestimará a β2, para ocasionar un sesgo negativo. Del análisis anterior, es claro que eliminar una variable del modelo para resolver el problema de la multicolinealidad puede producir un sesgo de especificación. Por tanto, el remedio suele ser peor que la enfermedad en algunas situaciones porque, mientras que la multicolinealidad puede obstaculizar la estimación precisa de los parámetros del modelo, la omisión de una variable gene- raría graves equivocaciones respecto de los verdaderos valores de los parámetros. Recuerde que los estimadores de MCO son MELI a pesar de la presencia de multicolinealidad perfecta. 4. Transformación de variables. Suponga que tenemos información de series de tiempo sobre el gasto de consumo, el ingreso y la riqueza. Una razón de la alta multicolinealidad entre el ingreso y la riqueza en tal información es que, con el tiempo, las dos variables tienden a mo- verse en la misma dirección. Una forma de reducir esta dependencia es proceder de la siguiente manera. Si la relación Yt = β1 + β2 X2t + β3 X3t + ut (10.8.3) se cumple en el periodo t, también debe cumplirse en el periodo t − 1, pues el origen del tiempo es, de todas formas, arbitrario. Por consiguiente, tenemos que: Yt −1 = β1 + β2 X2,t −1 + β3 X3,t −1 + ut −1 Si restamos (10.8.4) de (10.8.3) obtenemos Yt − Yt −1 = β2( X2t − X2,t −1) + β3( X3t − X3,t −1) + vt (10.8.4) (10.8.5)

11 donde vt = ut − ut−1. La ecuación (10. 8
donde vt = ut − ut−1. La ecuación (10.8.5) se conoce como la forma en primeras diferencias porque no se hace la regresión sobre las variables originales, sino sobre las diferencias de los valores sucesivos de dichas variables. El modelo de regresión que utiliza primeras diferencias a menudo reduce la gravedad de la multicolinealidad porque, aunque los niveles de X2 y X3 estén muy correlacionados, no hay razón a priori para pensar que sus diferencias también lo están. Como veremos en los capítulos que estudian la econometría de las series de tiempo, una ventaja incidental de la transformación de primeras diferencias consiste en que puede hacer que una serie de tiempo no estacionaria se convierta en estacionaria. En dichos capítulos veremos la importancia de las series de tiempo estacionarias. Como apreciamos en el capítulo 1, de manera muy general, una serie de tiempo, por ejemplo Yt, es estacionaria si su media y varianza no cam- bian de manera sistemática a través del tiempo. Otra transformación común en la práctica es la transformación de razón. Considere el si- guiente modelo: Yt = β1 + β2 X2t + β3 X3t + ut (10.8.6) donde Y es el gasto de consumo en dólares reales, X2 es el PIB y X3 es la población total. Como el PIB y la población aumentan con el tiempo, es muy probable que estén correlacionados. Una “solución” a este problema consiste en expresar el modelo mediante una base per cápita; es decir, dividir (10.8.4) entre X3 para obtener: Yt 1 β1 + β2 X2t X3t ut X3t + β3 + (10.8.7) X3t = X3t Dicha transformación tal vez reduzca la colinealidad en las variables originales. Sin embargo, la transformación que utiliza primeras diferencias o las transformaciones de razón crean otros problemas. Por ejemplo, el término de error vt que aparece en (10.8.5) puede no satisfacer un supuesto del modelo clásico de regresión lineal, a saber, que las perturbaciones no están serialmente correlacionadas. Como veremos en el capítulo 12, si el término de perturba- ción ut original no está serialmente correlacionado, el término de error vt obtenido antes estará, en la mayoría de los casos, serialmente correlacionado. De nuevo, el remedio puede ser peor que la enfermedad. Además, se pierde una observación debido al procedimiento de diferenciación y, por consiguiente, los grados de libertad se reducen en 1. En una muestra pequeña esto puede ser un factor que al menos se debe considerar. Por añadidura, el procedimiento de primeras diferen- cias puede no ser el adecuado en los datos de corte transversal, donde no hay un ordenamiento lógico de las observaciones. Del mismo modo, en el modelo de la razón (10.8.7), el término de error ut X3t será heteroscedástico, si el término de error original ut es homoscedástico, como veremos en el capítulo 11. Una vez más, el remedio quizá resulte peor que la enfermedad de la colinealidad. En resumen, se debe tener cuidado con las primeras diferencias o el método de la razón para transformar los datos a fin de resolver el problema de la multicolinealidad. 5. Datos nuevos o adicionales. Como la multicolinealidad es una característica de la mues- tra, es posible que en otra muestra con las mismas variables la colinealidad no sea tan grave como en la primera. A veces, con sólo aumentar el tamaño de la muestra (si esto es posible) se atenúa el problema de colinealidad. Por ejemplo, en el modelo de tres variables vimos que: o 2 var (βˆ2) = x2 2i 1 − r23 2

12 error estándar, lo cual permite estimar β2 de manera más precisa.
Ahora, a medida que aumenta el tamaño de la muestra, x2 por lo general aumenta. (¿Por 2i qué?) Por consiguiente, para cualquier r2 3 dado, la varianza de βˆ2 disminuirá, para reducir el error estándar, lo cual permite estimar β2 de manera más precisa. Como ejemplo, considere la siguiente regresión del gasto de consumo Y sobre el ingreso X2 y la riqueza X3 basada en 10 observaciones.34 Yˆi = X2i − 0.0349X3i (−1.1595) (10.8.8) t = (3.875) (2.7726) R2 = El coeficiente de la riqueza en esta regresión no sólo tiene el signo equivocado, sino que estadísti- camente no es significativo en el nivel de 5%. Pero cuando el tamaño de la muestra se incrementó a 40 observaciones (¿micronumerosidad?) se obtuvieron los siguientes resultados: Yˆi = X2i X3i (10.8.9) t = (0.8713) (6.0014) (2.0014) R2 = Ahora el coeficiente de la riqueza no sólo tiene el signo correcto, sino que es estadísticamente significativo en el nivel de 5%. La obtención de datos adicionales o “mejores” no siempre es tan sencilla, pues, como men- cionan Judge et al.: Por desgracia, muy pocas veces pueden los economistas obtener información adicional sin incurrir en altos costos, y mucho menos pueden seleccionar los valores de las variables explicativas que desean. Además, al agregar variables en situaciones no controladas, se debe tener cuidado de no agregar observaciones generadas en un proceso diferente del asociado al conjunto original de datos; es decir, se debe estar seguro de que la estructura económica asociada a las nuevas observaciones sea igual a la estructura original.35 Reducción de la colinealidad en las regresiones polinomiales. En la sección 7.10 estu- diamos los modelos de regresión polinomial. Una característica especial de estos modelos es que la(s) variable(s) explicativa(s) aparece(n) elevada(s) a diversas potencias. Por tanto, en la función cúbica de costos totales que implica la regresión del costo total sobre la producción, la (produc- ción)2 y la (producción)3, como en (7.10.4), los diversos términos de la producción van a estar correlacionados, lo que dificulta la estimación precisa de los diversos coeficientes de pendiente.36 No obstante, en la práctica se ha visto que si la(s) variable(s) explicativa(s) está(n) expresada(s) en forma de desviación (es decir, desviaciones del valor medio), la multicolinealidad se reduce sustancialmente. Pero, aun entonces, el problema puede persistir,37 en cuyo caso tal vez convenga considerar técnicas como la de los polinomios ortogonales.38 Otros métodos de remediar la multicolinealidad. Las técnicas estadísticas multivariadas como el análisis de factores y el de componentes principales, o como la regresión en cadena, son comunes para “resolver” el problema de la multicolinealidad. Desafortunadamente, estas técnicas están fuera del alcance de este libro, pues no pueden analizarse en forma competente sin recurrir al álgebra matricial.39 El autor agradece a Albert Zucker la obtención de los resultados de las siguientes regresiones. Judge et al., op. cit., p Véase también la sección 10.9. Como ya mencionamos, puesto que la relación entre X, X2 y X3 es no lineal, las regresiones polinomiales no violan el supuesto de no multicolinealidad del modelo clásico, en estricto sentido. Véase R.A. Bradley y S.S. Srivastava, “Correlation and Polynomial Regression”, American Statistician, vol. 33, 1979, pp Véase Norman Draper y Harry Smith, Applied Regression Analysis, 2a. ed., John Wiley & Sons, Nueva York, 1981, pp Una explicación sencilla de estas técnicas, desde un punto de vista aplicado, se encuentra en Samprit Chatterjee y Bertram Price, Regression Analysis by Example, John Wiley & Sons, Nueva York, 1977, capítulos 7 y 8. Véase también H.D. Vinod, “A Survey of Ridge Regression and Related Techniques for Improvements over Ordinary Least Squares”, Review of Economics and Statistics, vol. 60, febrero de 1978, pp

13 ¿Es la multicolinealidad necesariamente mala?
Quizá no, si el objetivo es sólo la predicción Dijimos que si el único propósito del análisis de regresión es el pronóstico o la predicción, la multicolinealidad no es un problema grave, pues, entre más alta sea la R2, mejor será la predic- ción.40 Pero esto sucede “… siempre que los valores de las variables explicativas, para los cuales se desean las predicciones, obedezcan las mismas dependencias lineales casi exactas de la matriz X [de datos] del diseño original”.41 Por tanto, si en una regresión estimada se encuentra que X2 = 2X3 aproximadamente, entonces, en una muestra futura para pronosticar Y, X2 también debe ser aproximadamente igual a 2X3, condición difícil de cumplir en la práctica (véase la nota 35), en cuyo caso la predicción será cada vez más incierta.42 Más aún, si el objetivo del análisis no es sólo la predicción sino también la estimación confiable de los parámetros, la presencia de una alta multicolinealidad puede ser un problema porque, como vimos, genera grandes errores estándar en los estimadores. Sin embargo, existen situaciones en las cuales la multicolinealidad puede no representar un problema grave. Es el caso en el cual se tiene una R2 elevada y los coeficientes de regresión son significativos individualmente como lo demuestran los altos valores t. Aun así, los diagnósticos de multicolinealidad, por ejemplo el índice de condición, indican que los datos presentan colinea- lidad grave. ¿Cuándo puede presentarse tal situación? Como menciona Johnston: Esto sucede si los coeficientes individuales resultan estar numéricamente muy por encima del valor verdadero, de forma que el efecto siga visible, a pesar de los errores estándar inflados y/o debido a que el valor verdadero es en sí mismo tan grande que, aunque se obtenga una estimación subesti- mada, continúe siendo significativa.43 Ejemplo ampliado: los datos Longley Concluimos este capítulo con el análisis de los datos recopilados por Longley.44 Aunque se obtu- vieron originalmente para evaluar la exactitud del cálculo computacional de las estimaciones de mínimos cuadrados de varios paquetes de software, los datos Longley se convirtieron en ejemplo para ilustrar diversos problemas econométricos, como la multicolinealidad. Los datos se repro- ducen en la tabla 10.8, y son series de tiempo de 1947 a 1962, donde Y = número de personas con trabajo (en miles), X1 = índice implícito de deflación de precios para el PIB, X2 = PIB (en millones de dólares), X3 = número de desempleados (en miles), X4 = número de personas enlis- tadas en las fuerzas armadas, X5 = población no institucionalizada mayor de 14 años de edad y X6 = año (igual a 1 para 1947, 2 para 1948 y 16 para 1962).

14 TABLA 10.8 Datos Longley Fuente: J. Longley, “An Appraisal of Least-Squares Programs from the Point of the User”, Journal of the American Statistical Associa- tion, vol. 62, 1967, pp Observación 1947 Y 60 323 1948 61 122 1949 60 171 1950 61 187 1951 63 221 1952 63 639 1953 64 989 1954 63 761 1955 66 019 1956 67 857 1957 68 169 1958 66 513 1959 68 655 1960 69 564 1961 69 331 1962 70 551 X1 830 885 882 895 962 981 990 1 000 1 012 1 046 1 084 1 108 1 126 1 142 1 157 1 169 X2 X3 2 356 X4 1 590 X5 Tiempo 1 2 325 1 456 2 3 682 1 616 3 3 351 1 650 4 2 099 3 099 5 1 932 3 594 6 1 870 3 547 7 3 578 3 350 8 2 904 3 048 9 2 822 2 857 10 2 936 2 798 11 4 681 2 637 12 3 813 2 552 13 3 931 2 514 14 4 806 2 572 15 4 007 2 827 16 Suponga que nuestro objetivo es predecir Y con base en las seis variables X. Mediante el soft- ware EViews6 obtenemos los siguientes resultados de la regresión: Variable dependiente: Y Muestra: Variable Coeficiente Error estándar Estadístico t Probabilidad C 0.0036 X1 0.8631 X2 0.3127 X3 0.0025 X4 0.0009 X5 0.8262 X6 0.0030 R cuadrada Media de la variable dependiente R cuadrada ajustada Desviación estándar de la Error estándar de la regresión variable dependiente Suma de cuadrados residual Criterio de información de Akaike Log verosimilitud Schwarz Estadístico de Durbin-Watson Estadístico F Probabilidad (estadístico F) A primera vista, dichos resultados sugieren que se tiene un problema de colinealidad, pues el valor R2 es muy alto; sin embargo, unas cuantas variables son estadísticamente no significativas (X1, X2 y X5), lo cual constituye un síntoma característico de multicolinealidad. Para arrojar más luz a este problema, en la tabla 10.9 se presentan las intercorrelaciones entre las seis regresoras. Esta tabla suministra lo que se llama matriz de correlación. En la tabla, las entradas de la diagonal principal (las que van desde la esquina superior izquierda hacia la esquina inferior de- recha) suministran la correlación de una variable consigo misma, la cual por definición siempre es 1; además, las entradas fuera de la diagonal principal son las parejas de correlaciones entre las variables X. El primer renglón de esta tabla proporciona la correlación de X1 con las otras varia-

15 TABLA 10.9 Intercorrelaciones X1 X2 X3 X4 X5 X6 X1 X2 X3 X4 X5 X6 bles X. Por ejemplo, es la correlación entre X1 y X2; es la correlación entre X1 y X3, y así sucesivamente. Como se ve, varias de estas correlaciones a pares son muy altas, lo cual sugiere que quizá haya un grave problema de colinealidad. Por supuesto, debe recordarse la advertencia anterior de que tales correlaciones a pares tal vez sean una condición suficiente, pero no necesaria, para la multicolinealidad. Con objeto de aclarar más la naturaleza del problema de la multicolinealidad, observe las re- gresiones auxiliares; es decir, la regresión de cada variable X sobre las restantes variables X. Para ahorrar espacio, se presentarán sólo los valores R2 obtenidos con base en esas regresiones, las cuales se listan en la tabla Como los valores R2 de las regresiones auxiliares son muy altos (con la posible excepción de la regresión de X4) sobre las restantes variables X, al parecer existe un grave problema de colinealidad. La misma información se obtiene a partir de los factores de tolerancia. Como ya mencionamos, mientras más cercano a cero esté el factor de tolerancia, mayor será la evidencia de colinealidad. Al aplicar la regla práctica de Klein observamos que los valores R2 obtenidos de las regresio- nes auxiliares exceden el valor general R2 (es decir, el que se obtuvo de la regresión de Y sobre todas las variables X), que es igual a , en 3 de 6 regresiones auxiliares, lo cual de nuevo sugiere que sin duda los datos Longley están plagados del problema de multicolinealidad. A propósito, si aplica la prueba F dada en (10.7.3), el lector debe verificar que todos los valores R2 dados en las tablas anteriores son estadística y significativamente diferentes de cero. Ya observamos que los estimadores de MCO y sus errores estándar son sensibles a los peque- ños cambios en los datos. En el ejercicio se pide al lector que vuelva a efectuar la regresión de Y sobre cada una de las seis variables X, pero que elimine las últimas observaciones; es decir, que haga la regresión para el periodo Verá cómo cambian los resultados de la regre- sión al eliminar las observaciones de un solo año. Ahora que establecimos que existe un problema de multicolinealidad, ¿qué acciones correc- tivas pueden llevarse a cabo? Reconsidere el modelo original. En primer lugar, el PIB puede expresarse no en términos nominales, sino en términos reales, lo cual se realiza al dividir el PIB nominal entre el índice de deflación del precio implícito. En segundo lugar, en vista de que la población no institucional mayor de 14 años aumenta con el tiempo debido al crecimiento natural de la población, estará muy correlacionada con el tiempo, la variable X6 del modelo. Por tanto, en lugar de conservar esas dos variables, mantenemos la variable X5 y desechamos X6. En tercer TABLA 10.10 Valores R2 obtenidos de regresiones auxiliares Variable dependiente X 1 X2 X3 X4 X5 X 6 Valor de R 0.9926 0.9994 0.9702 0.7213 0.9970 0.9986 2 Tolerancia (TOL) = 1 − R 0.0074 0.0006 0.0298 0.2787 0.0030 0.0014 2


Descargar ppt "Función de con- sumo para Estados Unidos,"

Presentaciones similares


Anuncios Google