La descarga está en progreso. Por favor, espere

La descarga está en progreso. Por favor, espere

11.7 Ejemplos para concluir

Presentaciones similares


Presentación del tema: "11.7 Ejemplos para concluir"— Transcripción de la presentación:

1 11.7 Ejemplos para concluir
Este resultado surge porque la transformación logarítmica comprime las escalas en las cuales se miden las variables, y por tanto reduce una diferencia entre dos valores de diez veces a una diferencia de dos veces. Así, el número 80 es diez veces el número 8, pero el ln 80 ( = ) es cerca de dos veces tan grande como ln 8 ( = ). Otra ventaja de la transformación logarítmica es que el coeficiente de pendiente β2 mide la elasticidad de Y respecto de X, es decir, el cambio porcentual en Y ante un cambio porcentual en X. Por ejemplo, si Y es el consumo y X el ingreso, β2 en ( ) mide la elasticidad del ingreso, mientras que en el modelo original, β2 sólo mide la tasa de cambio del consumo medio por cam- bio unitario del ingreso. Ésta es una razón por la cual los modelos logarítmicos son muy popula- res en la econometría empírica. (En el ejercicio 11.4 se aprecian algunos problemas asociados a la transformación logarítmica.) Para concluir la exposición sobre medidas correctivas, de nuevo destacamos que todas las transformaciones analizadas antes son ad hoc; en esencia, especulamos sobre la naturaleza de σ 2. i El que las transformaciones estudiadas en verdad funcionen depende de la naturaleza del pro- blema y de la gravedad de la heteroscedasticidad. Hay otros problemas con las transformaciones que deben tomarse en cuenta: Cuando se va más allá del modelo con dos variables tal vez no se conozca a priori la varia- ble X que debe seleccionarse para transformar los datos.39 La transformación logarítmica como se analiza en el supuesto 4 no es aplicable si algún valor de Y o de X es cero o negativo.40 Además, hay un problema de correlación espuria. Este término, atribuido a Karl Pear- son, se refiere a la situación de correlación entre las razones de variables, aunque las variables originales no estén correlacionadas o sean aleatorias.41 Así, en el modelo Yi = β1 + β2 Xi + ui, Y y X pueden no estar correlacionados, pero en el modelo transformado Yi /Xi = β1(1/Xi )+ β2 , a menudo se encuentra que Yi /Xi y 1/Xi sí lo están. i transformaciones ya analizadas, todos los procedimientos de prueba t, F, etc., son, en estricto sentido, válidos sólo para muestras grandes. Por consiguiente, se debe tener cuidado al inter- pretar resultados fundados en las diversas transformaciones cuando las muestras son pequeñas o finitas.42 4. Cuando las σ 2 no se conocen directamente y se estiman a partir de una o más de las 11.7 Ejemplos para concluir Para concluir el análisis de heteroscedasticidad presentamos tres ejemplos que ilustran los prin- cipales temas de este capítulo. i

2 De nuevo la morta- lidad infantil
EJEMPLO 11.9 De nuevo la morta- lidad infantil Regresemos al ejemplo de mortalidad infantil que hemos analizado en diversas ocasiones. De los datos de 64 países obtuvimos los resultados de la regresión mostrados en la ecuación (8.1.4). En vista de que los datos son transversales e implican diferentes países con distintas experiencias sobre mortalidad infantil, parece muy probable que haya heteroscedasticidad. Para descubrirlo, primero tomaremos en cuenta los residuos obtenidos de la ecuación (8.1.4). Tales residuos se grafican en la figura De acuerdo con dicha gráfica, al parecer los residuos no muestran ningún patrón específico que sugiera heteroscedasticidad. No obstante, las apariencias enga- ñan, así que aplicaremos las pruebas de Park, Glejser y White para descubrir alguna evidencia de heteroscedasticidad. Prueba de Park. Como hay dos regresoras, PIB y TAM, hacemos la regresión de los residuos al cuadrado a partir de la regresión (8.1.4) sobre cualquiera de esas variables. O podemos efectuar la regresión de ellos sobre los valores estimados de MI ( = MI) a partir de la regresión (8.1.4). Con la regresión anterior obtenemos los siguientes resultados: uˆ 2 = MIi i (11.7.1) t = (1.2010) (1.2428) r 2 = 0.024 Nota: uˆi son los residuos obtenidos de la regresión (8.1.4) y MI son los valores estimados de MI a partir de la regresión (8.1.4). Como muestra esta regresión, no existe ninguna relación sistemática entre el cuadrado de los residuos y los valores estimados de MI (¿por qué?), lo cual sugiere que el supuesto sobre la homoscedasticidad puede ser válido. A propósito, si hacemos la regresión del logaritmo de los residuos al cuadrado sobre el logaritmo de MI, no cambia la conclusión. Prueba de Glejser. Los valores absolutos de los residuos obtenidos a partir de (8.1.4), cuando se hizo la regresión de los valores estimados de MI a partir de esa misma regresión, dieron estos resultados: |uˆi | = MIi t = (2.8086) (1.2622) r 2 = (11.7.2) De nuevo, no existe una gran relación sistemática entre los valores absolutos de los residuos y los valores estimados de MI, pues el valor t del coeficiente de la pendiente no es estadísticamente significativo. Prueba de White. Al aplicar la prueba de White para la heteroscedasticidad con y sin los térmi- nos de los productos cruzados no hallamos ninguna evidencia de heteroscedasticidad. También volvimos a estimar (8.1.4) para obtener los errores estándar consistentes con heteroscedasti- cidad de White y los valores t, pero los resultados fueron muy parecidos a los de la ecuación (8.1.4), lo cual no sorprende en vista de lo arrojado por las diversas pruebas de heteroscedasti- cidad anteriores. En resumen, parece que la regresión de mortalidad infantil (8.1.4) no experimenta heteros- cedasticidad alguna. FIGURA 11.12 Residuos de la regresión (8.1.4). 100 50 –50 –100

3 EJEMPLO 11.10 Gastos en investi- gación y desarrollo (IyD), ventas y uti- lidades de 14 sec- tores industriales de Estados Unidos, 2005 En la tabla 11.5 se presentan datos sobre el gasto en investigación y desarrollo (IyD), ventas y utilidades de 14 sectores industriales en Estados Unidos (todas las cifras se expresan en millones de dólares). Como los datos transversales presentados en la tabla 11.5 son muy heterogéneos, en una regresión de IyD sobre las ventas es probable la presencia de heteroscedasticidad. Los resultados obtenidos de la regresión fueron los siguientes: IyDi = ee = (5 015) t = (0.27) Ventasi (0.0277) (1.58) (11.7.3) r 2 = 0.172 No sorprende una relación positiva entre IyD y ventas, aunque no sea estadísticamente signifi- cativa en los niveles tradicionales. TABLA 11.5 Ventas y empleo para empresas que realizan IyD industrial en Esta- dos Unidos, por indus- tria, 2005 (los valores se expresan en millones de dólares) Industria Alimentos Textiles, ropa y cuero Productos químicos básicos Resinas, caucho sintético, fibras y filamentos Productos farmacéuticos y Ventas IyD Utilidades 2 716 51 639 816 53 510 2 277 75 168 2 294 34 645 medicamentos 34 839 Fuente: National Science 6 Productos de plástico y caucho 90 176 1 760 96 162 Foundation, Division of Science 7 Productos metálicos fabricados 1 375 Resources Statistics, Survey of Industrial Research and 8 Maquinaria 8 531 Development, 2005, y U.S. 9 Computadoras y equipo periférico 91 010 4 955 34 004 Census Bureau Annual Survey of Manufacturers, 2005. Semiconductores y otros componentes electrónicos Instrumentos de navegación, medición, electromédicos y de control Equipo eléctrico, aparatos 18 724 81 317 15 204 73 258 electrodomésticos y componentes 2 424 54 742 13 Productos y partes aeroespaciales 15 005 72 090 14 Equipo y suministros médicos 56 661 4 374 52 443 Para verificar si la regresión (11.7.3) experimenta heteroscedasticidad, obtuvimos los resi- duos uˆi y los residuos al cuadrado uˆ2 del modelo, y se graficaron respecto de las ventas, como se muestra en la figura Según esta figura, parece que existe un patrón sistemático entre los residuos y los cuadrados de los residuos y las ventas, lo cual indica heteroscedasticidad. Para probar esto de manera formal, utilizamos las pruebas de Park, Glejser y White, las cuales dieron los siguientes resultados: Prueba de Park i uˆ2 = − Ventasi i ee = ( ) (303.9) t = (−1.32) (3.01) r 2 = 0.431 (11.7.4) La prueba de Park indica una relación positiva estadísticamente significativa entre el cuadrado de los residuos y las ventas.

4 EJEMPLO 11.10 (continuación) FIGURA 11.13
Residuos a) y cuadrado de los residuos b) sobre ventas. 30 000 20 000 10 000 a) –10 000 –20 000 Residuos b) Ventas rueba de Glejser |uˆi | = − Ventasi ee = (2 316) (0.0128) (11.7.5) Cuadrado de los residuos P t = (−0.43) (3.62) r 2 = 0.522 La prueba de Glejser también indica una relación sistemática entre los valores absolutos de los residuos y las ventas, con lo que aumenta la posibilidad de que la regresión (11.7.3) presente heteroscedasticidad. Prueba de White uˆ2 = − Ventas2 i Ventasi (1 308) (0.44) i ee = ( ) ( ) (0.27) (11.7.6) t = (−0.42) R 2 = 0.435 Con el valor R2 y n = 14, se obtiene nR2 = Con la hipótesis nula de inexistencia de heteroscedasticidad, esto debe seguir una distribución ji cuadrada con 2 gl [porque hay dos re- gresoras en (11.7.6)]. El valor p, que resulta de obtener un valor ji cuadrado de o mayor, es de casi Como se trata de un valor bajo, la prueba de White también indica heteros- cedasticidad.

5 En resumen, con base en las gráficas de los residuos y las pruebas de Park, Glejser y White, parece que en la regresión de IyD (11.7.3) existe heteroscedasticidad. Como la verdadera va- rianza del error se desconoce, no podemos utilizar el método de los mínimos cuadrados ponde- rados para obtener los errores estándares corregidos por heteroscedasticidad y los valores t. Por consiguiente, con base en los datos disponibles, tendríamos que hacer conjeturas respecto de la naturaleza de la varianza de error. Para concluir el ejemplo, a continuación presentamos los errores estándar de White consis- tentes con heteroscedasticidad, como se analizaron en la sección 11.6: IyDi = Ventasi ee = ( ) (0.0411) (11.7.7) t = (0.27) (1.06) r 2 = 0.172 Al comparar la ecuación (11.7.7) con la ecuación (11.7.3) (la segunda sin corrección por he- teroscedasticidad), observamos que, a pesar de que no cambiaron los parámetros estimados (como era de esperarse), el error estándar del coeficiente del intercepto disminuyó un poco y el error estándar del coeficiente de la pendiente se incrementó un poco. Pero recuerde que el pro- cedimiento de White es estrictamente para muestras grandes, en tanto que aquí sólo tenemos 14 observaciones. EJEMPLO 11.11 La tabla 11.6 del sitio Web del libro contiene datos sobre salarios y otros aspectos relacionados correspondientes a 94 distritos escolares en el noroeste de Ohio. En principio, se estimó la si- guiente regresión con base en estos datos: ln(Salario)i = β1 + β2 ln(Ingresofam) + β3 ln(Valorinm) + ui Donde Salario = salario promedio de los maestros ($), Ingresofam = ingreso familiar promedio en el distrito ($) y Valorinm = valor promedio de los inmuebles en el distrito ($). Como se trata de un modelo de doble logaritmo, todos los coeficientes de las pendientes son elasticidades. Con base en las diversas pruebas de heteroscedasticidad analizadas en el texto, se concluyó que el modelo anterior tenía heteroscedasticidad. Por tanto, obtuvimos los errores es- tándar robustos (de White). La siguiente tabla presenta los resultados de la regresión precedente con y sin errores estándar robustos. Variable Intercepto Coeficiente 7.0198 ee MCO 0.8053 ee robusto 0.7721 (8.7171) (9.0908) ln(ingresofam) 0.2575 0.0799 0.1009 (3.2230) (2.5516) ln(valorinm) 0.0704 0.0207 0.0460 (3.3976) (1.5311) R2 0.2198 Nota: Las cifras entre paréntesis son razones t estimadas. Aunque los valores de los coeficientes y R2 son iguales con el método de MCO o con el de White, los errores estándar cambiaron; el cambio más radical es el del error estándar del coefi- ciente ln(valorinm). El método habitual de MCO indicaría que el coeficiente estimado de esta variable es muy significativo estadísticamente, mientras que el error estándar robusto de White indica que este coeficiente no es significativo ni siquiera en el nivel de 10%. Lo importante de este ejemplo es que, si existe heteroscedasticidad, debe tomarse en cuenta para estimar el mo- delo.

6 11.8 Advertencia respecto de una reacción exagerada
ante la heteroscedasticidad En el ejemplo sobre IyD analizado en la sección anterior vimos que, cuando utilizamos la trans- formación raíz cuadrada para corregir la heteroscedasticidad en el modelo original (11.7.3), el error estándar del coeficiente de la pendiente disminuyó y su valor t aumentó. ¿Este cambio es tan importante como para causar preocupación en la práctica? En otras palabras, ¿cuándo debe preo- cupar el problema de la heteroscedasticidad? Como sostiene un autor: “la heteroscedasticidad jamás ha sido una razón para desechar un modelo que de otra forma sería adecuado”.43 Aquí vale la pena recordar la advertencia de John Fox: . . .vale la pena corregir una varianza del error desigual sólo cuando el problema es grave. El impacto de una varianza del error no constante sobre la eficacia de un estimador de mínimos cuadrados ordinarios y sobre la validez de la inferencia de mínimos cuadrados depende de diver- i lores X (es decir, la regresora) y de la relación entre la varianza del error y las X. Por consiguiente, no es posible llegar a conclusiones generales respecto del daño producido por la heteroscedasticidad.44 De regreso al modelo (11.3.1), vimos ya que la varianza del estimador de pendiente, var (βˆ2), está dada por la fórmula usual mostrada en (11.2.3). Según MCG, la varianza del estimador de sos factores, como el tamaño de la muestra, el grado de variación de σ 2, la configuración de los va- pendiente, var (βˆ∗), está dada por (11.3.9). Sabemos que esta última es más eficaz que la pri- 2 mera. Pero, ¿qué tan grande debe ser la primer varianza (es decir, la de MCO) en relación con la varianza de MCG antes de que cause preocupación? Como regla práctica, Fox sugiere que el problema empiece a preocupar “...cuando la varianza del error más grande sea mayor que 10 veces la más pequeña”.45 Por consiguiente, al revisar los resultados de las simulaciones Monte Carlo de Davidson y MacKinnon presentadas antes, considere el valor de α = 2. La varianza del β2 estimado es 0.04 con MCO, y con MCG, por lo que la razón de la primera respecto de la segunda es de casi De acuerdo con la regla de Fox, en este caso la gravedad de la hete- roscedasticidad quizá no sea lo bastante grande para provocar preocupación. También recuerde que, a pesar de la heteroscedasticidad, los estimadores de MCO (en con- diciones generales) son lineales e insesgados, y están asintótica y normalmente distribuidos (es decir, en muestras grandes). Como veremos cuando analicemos otra violación a los supuestos del modelo clásico de re- gresión lineal, la advertencia de esta sección resulta apropiada como regla general. Si hace caso omiso de lo anterior, puede cometer errores. Resumen y conclusiones Un supuesto importante del modelo clásico de regresión lineal es que todas las perturbaciones ui tienen la misma varianza σ 2. Si este supuesto no se satisface, hay heteroscedasticidad. La heteroscedasticidad no destruye las propiedades de insesgamiento y consistencia de los estimadores de MCO. Sin embargo, estos estimadores dejan de tener varianza mínima, es decir, de ser eficientes. Por consiguiente, no son MELI. Los estimadores MELI son proporcionados por el método de mínimos cuadrados ponderados, siempre que se conozcan las varianzas heteroscedásticas de error, σ 2. i

7 En presencia de heteroscedasticidad, las varianzas de los estimadores de MCO no se obtienen con las fórmulas usuales de MCO. Sin embargo, si insiste en utilizar las fórmulas habituales de MCO, las pruebas t y F basadas en ellas pueden conducir a grandes desatinos que darán por resultado conclusiones erróneas. Es más fácil documentar las consecuencias de la heteroscedasticidad que detectarlas. Existen diversas pruebas de diagnóstico disponibles, pero no se puede decir con seguridad cuál fun- cionará en una situación dada. Aunque se sospeche y se detecta la heteroscedasticidad, no es fácil corregir el problema. Si la muestra es grande, se pueden obtener los errores estándar de los estimadores de MCO corre- gidos por el método de heteroscedasticidad de White y realizar inferencia estadística basada en estos errores estándar. De lo contrario, con base en los residuos de MCO, se pueden hacer conjeturas con ciertos fundamentos acerca del patrón probable de heteroscedasticidad y transformar la información original de manera que en la información transformada no haya heteroscedasticidad. EJERCICIOS Preguntas Establezca si las siguientes afirmaciones son verdaderas, falsas o inciertas y comente sus razones brevemente: En presencia de heteroscedasticidad, los estimadores de MCO son sesgados e inefi- cientes. Si hay heteroscedasticidad, las pruebas convencionales t y F son inválidas. En presencia de heteroscedasticidad, el método de MCO habitual siempre sobrees- tima los errores estándar de los estimadores. ) Si los residuales estimados mediante una regresión por MCO exhiben un patrón sis- temático, significa que hay heteroscedasticidad en los datos. No hay una prueba general de heteroscedasticidad que no esté basada en algún su- puesto acerca de cuál variable está correlacionada con el término de error. f ) Si el modelo de regresión está mal especificado (por ejemplo, si se omitió una variable importante), los residuos de MCO mostrarán un patrón claramente distinguible. g) Si una regresora con varianza no constante se omite (incorrectamente) de un modelo, los residuos (MCO) serán heteroscedásticos. En una regresión de salarios promedio (W, $) sobre el número de empleados (N ) de una muestra aleatoria de 30 empresas se obtuvieron los siguientes resultados:* W = N t = n.a. (16.10) R2 = 0.90 (1) (2) W /N = (1/N ) t = (14.43) (76.58) R2 = 0.99 ¿Cómo interpreta las dos regresiones? ¿Qué supone el autor al pasar de la ecuación (1) a la (2)? ¿Le preocupaba la heteros- cedasticidad? ¿Cómo sabe? ¿Puede relacionar las pendientes y los interceptos de los dos modelos? ) ¿Puede comparar los valores de R2 de los dos modelos? ¿Por qué? * Véase Dominick Salvatore, Managerial Economics, McGraw-Hill, Nueva York, 1989, p. 157.

8 11.3. a) ¿Puede estimar los parámetros de los modelos
|uˆi | = β1 + β2 Xi + vi |uˆi | = β1 + β2 X 2 + vi i mediante el método de mínimos cuadrados ordinarios? ¿Por qué? b) Si la respuesta es negativa, ¿puede sugerir un método informal o formal de estimación de los parámetros de tales modelos? (Véase el capítulo 14.) Aunque los modelos logarítmicos como el de la ecuación ( ) a menudo reducen la heteroscedasticidad, se debe prestar cuidadosa atención a las propiedades del término de perturbación de estos modelos. Por ejemplo, el modelo Yi = β1 X β2 ui i (1) puede escribirse como ln Yi = ln β1 + β2 ln Xi + ln ui Si ln ui tiene valor esperado cero, ¿cuál debe ser la distribución de ui? Si E(ui) = 1, ¿será E(ln ui)= 0? ¿Por qué? Si E(ln ui) es diferente de cero, ¿qué puede hacer para volverlo cero? (2) Muestre que β∗ de (11.3.8) también se expresa como 2 β∗ i i wi y∗ x∗ 2 = wi x2∗ i y var (β∗) dada en (11.3.9) también se expresa como 2 1 var (β∗) = 2 w x2 i i ∗ donde y∗ = Yi − Y¯ ∗ y x∗ = Xi − X ∗ representan las desviaciones en relación con las medias ponderadas Y¯ ∗ y X¯ ∗ definidas como i i Y¯ ∗ = wi Yi wi X¯ ∗ = wi Xi wi Con propósitos pedagógicos, Hanushek y Jackson estiman el siguiente modelo: Ct = β1 + β2PNBt + β3Dt + ui (1) donde Ct = gasto agregado de consumo privado en el año t, PNBt = producto nacional bruto en el año t y Dt = gastos de defensa nacional en el año t, con el objetivo de estudiar el efecto de los gastos de defensa sobre otros gastos en la economía. Los autores postulan que σ 2 = σ 2(PNB )2, luego transforman (1) y estiman t t Ct/PIBt = β1 (1/PIBt) + β2 + β3 (Dt/PIBt) + ut/PIBt (2)

9 Autocorrelación: ¿qué pasa si los términos de error están correlacionados?
El lector quizá recuerde que existen tres tipos de datos disponibles para el análisis empírico: 1) transversales, 2) series de tiempo y 3) la combinación de ambos, también conocida como da- tos agrupados. Al desarrollar el modelo clásico de regresión lineal (MCRL), en la parte 1, partimos de varios supuestos, que se analizaron en la sección 7.1. No obstante, observamos que no todos los supuestos se cumplen con cualquier tipo de datos. De hecho, en el capítulo anterior vimos que el supuesto de la homoscedasticidad, o varianza de error igual, no siempre se sustenta en los datos transversales. En otras palabras, los datos transversales a menudo están plagados de problemas de heteroscedasticidad. Sin embargo, en los estudios transversales, a menudo los datos se recopilan con base en una muestra aleatoria de unidades transversales; como familias (en un análisis de la función con- sumo) o empresas (en un estudio de análisis sobre la inversión), de modo que no existe razón previa para creer que el término de error que correspondiente a una familia o a una empresa esté correlacionado con el término de error de otra familia o empresa. Si por casualidad se observa dicha correlación en unidades transversales, se conoce como autocorrelación espacial; es decir, es una correlación en el espacio más que en el tiempo. Sin embargo, es importante recordar que en el análisis transversal la ordenación de los datos debe tener alguna lógica, o algún interés eco- nómico, a fin de que cobre sentido la conclusión de la presencia o ausencia de autocorrelación (espacial). No obstante, es probable que la situación sea muy distinta si trabajamos con datos de series de tiempo, pues las observaciones en estos datos siguen un ordenamiento natural respecto del tiempo, de modo que es muy posible que las observaciones sucesivas muestren intercorrela- ciones, sobre todo si el intervalo entre observaciones sucesivas es muy corto, como un día, una semana o un mes, en lugar de un año. Si observa los índices bursátiles, como el Dow Jones o el S&P 500 en días sucesivos, no es raro que descubra que dichos índices aumentan o disminuyen durante varios días sucesivos. Obvio, en esta clase de situaciones se viola el supuesto del MCRL en cuanto a que no existe autocorrelación, ni correlación serial en los términos de error. En este capítulo examinaremos en forma crítica este supuesto con el fin de responder las si- guientes preguntas: ¿Cuál es la naturaleza de la autocorrelación? ¿Cuáles son las consecuencias teóricas y prácticas de la autocorrelación?

10 1 Naturaleza del problema
Capítulo Autocorrelación: ¿qué pasa si los términos de error están correlacionados? Como el supuesto de no autocorrelación se relaciona con las perturbaciones no observables ut, ¿cómo saber que hay autocorrelación en una situación dada? Observe que ahora usaremos el subíndice t para destacar que los datos corresponden a series de tiempo. ¿Cómo remediar el problema de la autocorrelación? En este capítulo el lector encontrará similitudes en muchos aspectos con el anterior sobre he- teroscedasticidad, pues, en presencia tanto de autocorrelación como de heteroscedasticidad, los estimadores de MCO usuales, a pesar de ser lineales, insesgados y tener distribución asintóticamente normal (es decir, en muestras grandes),1 dejan de tener varianza mínima entre todos los estimadores lineales insesgados. En resumen, no son eficientes en relación con los demás estimadores lineales e insesgados. Dicho de otro modo, es posible que no sean los mejores estimadores lineales insesgados (MELI). Como resultado, las pruebas usuales t, F y χ2 pueden no ser válidas. 1 Naturaleza del problema El término autocorrelación se define como la “correlación entre miembros de series de observa- ciones ordenadas en el tiempo [como en datos de series de tiempo] o en el espacio [como en datos de corte transversal]”.2 En el contexto de regresión, el modelo clásico de regresión lineal supone que no existe tal autocorrelación en las perturbaciones ui. Simbólicamente, cov(ui , u j |xi , xj ) = E(ui u j ) = 0 i j (3.2.5) En forma sencilla, el modelo clásico supone que el término de perturbación relacionado con una observación cualquiera no recibe influencia del término de perturbación relacionado con cual- quier otra observación. Por ejemplo, si tratamos con información trimestral de series de tiem- po, que implica una regresión de la producción sobre los insumos trabajo y capital, y si, por ejemplo, hay una huelga laboral que afecta la producción en un trimestre, no hay razón para pen- sar que esta interrupción afectará la producción del trimestre siguiente. Es decir, si la producción es inferior en este trimestre, no hay razón para esperar que sea baja en el siguiente. En forma similar, si tratamos con información de corte transversal que implica la regresión del gasto de consumo familiar sobre el ingreso familiar, no esperaremos que el efecto de un incremento en el ingreso de una familia sobre su gasto de consumo incida en el gasto de consumo de otra. Sin embargo, si existe tal dependencia, hay autocorrelación. Simbólicamente, E(ui u j ) 0 i j (12.1.1) En esta situación, la interrupción ocasionada por una huelga este trimestre puede afectar muy fácilmente la producción del siguiente trimestre, o los incrementos del gasto de consumo de una familia pueden muy bien inducir a otra familia a aumentar su gasto de consumo para no quedar rezagada. Antes de encontrar la razón de la autocorrelación es esencial aclarar la terminología. Aunque hoy en día es común tratar como sinónimos los términos autocorrelación y correlación se- rial, algunos autores prefieren diferenciarlos. Por ejemplo, Tintner define autocorrelación como “correlación rezagada de una serie dada consigo misma, rezagada por un número de unidades de tiempo”, mientras que reserva el término correlación serial para “correlación rezagada entre

11 dos series diferentes”
dos series diferentes”.3 Así, la correlación entre dos series de tiempo como u1, u2, , u10 y u2, u3, , u11, donde la primera es igual a la última rezagada un periodo, es autocorrelación, mien- tras que la correlación entre dos series de tiempo como u1, u2, , u10 y v2, v3, , v11, donde u y v son dos series de tiempo diferentes, se denomina correlación serial. Aunque la distinción entre ambos puede ser útil, en este libro los consideraremos sinónimos. Visualicemos algunos patrones razonables de autocorrelación y de no autocorrelación de la figura Las figuras 12.1a) a d) muestran un patrón distinguible entre las u. La figura 12.1a) muestra un patrón cíclico; las figuras 12.1b) y c) sugieren una tendencia lineal hacia arriba o hacia abajo en las perturbaciones; y la figura 12.1d) indica que hay términos de tendencia tanto lineal como cuadrática en las perturbaciones. Sólo la figura 12.1e) indica que no hay un patrón sis- temático, y apoya así el supuesto de no autocorrelación del modelo clásico de regresión lineal. La pregunta natural es: ¿por qué ocurre la correlación serial? Hay diversas razones, algunas de las cuales son las siguientes: Inercia Una característica relevante de la mayoría de las series de tiempo económicas es la inercia o pasividad. Como bien se sabe, las series de tiempo como PNB, índices de precios, producción, empleo y desempleo presentan ciclos (económicos). A partir del fondo de la recesión, cuando se inicia la recuperación económica, la mayoría de estas series empieza a moverse hacia arriba. En este movimiento ascendente, el valor de una serie en un punto del tiempo es mayor que su valor anterior. Así, se genera un “impulso” en ellas, y continuará hasta que suceda otra cosa (por ejemplo, un aumento en la tasa de interés o en los impuestos, o ambos) para reducirlo. Por consiguiente, es probable que, en las regresiones que consideran datos de series de tiempo, las observaciones sucesivas sean interdependientes. Sesgo de especificación: caso de variables excluidas En el análisis empírico, con frecuencia el investigador empieza con un modelo de regresión ra- zonable que puede no ser “perfecto”. Después del análisis de regresión, el investigador haría el examen post mortem para ver si los resultados coinciden con las expectativas a priori. De no ser así, iniciaría “la cirugía”. Por ejemplo, el investigador graficaría los residuos uˆ i obtenidos de la regresión ajustada y observaría patrones como los de las figuras 12.1a) a d). Estos residuos (re- presentaciones de las ui) pueden sugerir la inclusión de algunas variables originalmente can- didatas pero que no se incluyeron en el modelo por diversas razones. Es el caso del sesgo de especificación ocasionado por variables excluidas. Con frecuencia, la inclusión de tales varia- bles elimina el patrón de correlación observado entre los residuales. Por ejemplo, suponga que tenemos el siguiente modelo de demanda: Yt = β1 + β2 X2t + β3 X3t + β4 X4t + ut (12.1.2) donde Y = cantidad de carne de res demandada, X2 = precio de la carne de res, X3 = ingreso del consumidor, X4 = precio del cerdo y t = tiempo.4 Sin embargo, por alguna razón efectuamos la siguiente regresión: Yt = β1 + β2 X2t + β3 X3t + vt (12.1.3) Ahora, si (12.1.2) es el modelo “correcto”, el “verdadero” o la relación verdadera, efectuar (12.1.3) equivale a permitir que vt = β4 X4 t + ut. Así, en la medida en que el precio del cerdo afecte el consumo de carne de res, el término de error o de perturbación v reflejará un patrón sistemático,

12 × × × × × × × × × × × × × × × × × FIGURA 12.1
Patrones de autocorrela- ción y no autocorrelación. u,u u,u × × × × × × × × × × × × × × × × × × × × × × × × Tiempo × × × Tiempo × a) b) u,u u,u × × × × × × × × × × × × × × × × Tiempo × × × × × Tiempo × c) d) u,u × × × × × × × × × × × × × × × Tiempo e) lo que crea (una falsa) autocorrelación. Una prueba sencilla de esto sería llevar a cabo (12.1.2) y (12.1.3) y ver si la autocorrelación observada en el modelo (12.1.3), de existir, desaparece cuando se efectúa (12.1.2).5 Analizaremos el mecanismo real para detectar la autocorrelación en la sección 12.6, donde mostraremos que una gráfica de los residuos de las regresiones (12.1.2) y (12.1.3) con frecuencia aclara en gran medida el problema de correlación serial.

13 Sesgo de especificación: forma funcional incorrecta
FIGURA 12.2 Sesgo de especificación: Forma funcional incorrecta. B A Costo marginal de producción Producción Sesgo de especificación: forma funcional incorrecta Suponga que el modelo “verdadero” o correcto en un estudio de costo-producción es el si- guiente: Costo marginali = β1 + β2 produccióni + β3 producción2 + ui i (12.1.4) pero ajustamos el siguiente modelo: Costo marginali = α1 + α2 produccióni + vi (12.1.5) La curva de costo marginal correspondiente al “verdadero” modelo se muestra en la figura 12.2, junto con la curva de costo lineal “incorrecta”. Como se muestra en la figura 12.2, entre los puntos A y B la curva de costo marginal li- neal sobreestimará consistentemente el costo marginal verdadero, mientras que más allá de estos puntos, lo subestimará consistentemente. Este resultado es de esperarse porque el término de perturbación vi es, en realidad, igual a producción2 + ui, y, por tanto, capta el efecto sistemático del término producción2 sobre el costo marginal. En este caso, vi reflejará autocorrelación por el uso de una forma funcional incorrecta. En el capítulo 13 consideraremos diversos métodos para detectar sesgos de especificación. Fenómeno de la telaraña La oferta de muchos productos agrícolas refleja el llamado fenómeno de la telaraña, en donde la oferta reacciona al precio con un rezago de un periodo debido a que la instrumentación de las de- cisiones de oferta tarda algún tiempo (periodo de gestación). Por tanto, en la siembra de cultivos al principio de año, los agricultores reciben influencia del precio prevaleciente el año anterior, de forma que su función de oferta es Ofertat = β1 + β2 Pt −1 + ut (12.1.6) Suponga que al final del periodo t, el precio Pt resulta inferior a Pt−1. Por consiguiente, es muy probable que en el periodo t + 1 los agricultores decidan producir menos de lo que produjeron en el periodo t. Obvio, en esta situación no esperaremos que las perturbaciones ui sean aleatorias, porque si los agricultores producen excedentes en el año t, es probable que reduzcan su produc- ción en t + 1, y así sucesivamente, para generar un patrón de telaraña. Rezagos En una regresión de series de tiempo del gasto de consumo sobre el ingreso no es extraño encontrar que el gasto de consumo en el periodo actual dependa, entre otras cosas, del gasto de consumo del periodo anterior.

14 Yt −1 = β1 + β2 Xt −1 + ut −1 Es decir,
Consumot = β1 + β2 ingresot + β3 consumot−1 + ut (12.1.7) Una regresión como (12.1.7) se conoce como autorregresión porque una variable explicativa es el valor rezagado de la variable dependiente. (Estudiaremos estos modelos en el capítulo 17.) El razonamiento de un modelo como (12.1.7) es sencillo. Los consumidores no cambian sus hábitos de consumo fácilmente por razones psicológicas, tecnológicas o institucionales. Ahora, si ignora- mos el término rezagado en (12.1.7), el término de error resultante reflejará un patrón sistemático debido a la influencia del consumo rezagado en el consumo actual. “Manipulación” de datos En el análisis empírico con frecuencia se “manipulan” los datos simples. Por ejemplo, en las regresiones de series de tiempo con datos trimestrales, por lo general estos datos provienen de datos mensuales a los que se agregan simplemente las observaciones de tres meses y se divide la suma entre 3. Este procedimiento de promediar las cifras suaviza en cierto grado los datos al eliminar las fluctuaciones en los datos mensuales. Por consiguiente, la gráfica referente a datos trimestrales aparece mucho más suave que la que contiene los datos mensuales, y este suaviza- miento puede, por sí mismo, inducir un patrón sistemático en las perturbaciones, lo que agrega autocorrelación. Otra fuente de manipulación es la interpolación o extrapolación de datos. Por ejemplo, el Censo de Población se realiza cada 10 años en Estados Unidos, y los dos últimos se efectuaron en 1990 y Ahora bien, si necesitamos datos para algún año comprendido en el periodo intercensal, la práctica común consiste en interpolar con base en algunos supuestos ad hoc. Todas estas técnicas de “manejo” podrían imponer sobre los datos un patrón sistemático que quizá no estaría presente en los datos originales.6 Transformación de datos Como un ejemplo, considere el siguiente modelo: Yt = β1 + β2 Xt + ut (12.1.8) donde, digamos, Y = gasto de consumo y X = ingreso. Como (12.1.8) es válida para cada pe- riodo, también lo es para el periodo anterior (t − 1). Así, podemos expresar (12.1.8) como Yt −1 = β1 + β2 Xt −1 + ut −1 (12.1.9) Yt−1, Xt−1 y ut−1 se conocen como los valores rezagados de Y, X y u, respectivamente; en este caso están rezagados un periodo. Más tarde, en este mismo capítulo y en varias partes del libro, veremos la importancia de dichos valores rezagados. Ahora bien, si restamos (12.1.9) de (12.1.8), obtenemos Yt = β2 Xt + ut ( ) donde 6, llamado operador de primeras diferencias, indica que se toman diferencias sucesivas de las variables en cuestión. Por tanto, 6Yt = (Yt − Yt−1), 6Xt = (Xt − Xt−1) y 6ut = (ut − ut−1). Para propósitos empíricos, escribimos ( ) como Yt = β2 Xt + vt ( ) donde vt = 6ut = (ut − ut−1).

15 2 Estimación de MCO en presencia de autocorrelación
La ecuación (12.1.9) se conoce como la forma de nivel, y la ecuación ( ), como la forma en (primeras) diferencias. Ambas formas son frecuentes en el análisis empírico. Por ejemplo, si en (12.1.9) Y y X representan los logaritmos del gasto de consumo y el ingreso, en- tonces en ( ) 6Y y 6 X representarán los cambios en los logaritmos del gasto de consumo y del ingreso. Pero, como sabemos, un cambio en el logaritmo de una variable —si se multiplica por 100— es un cambio relativo, o un cambio porcentual. De modo que, en vez de estudiar las relaciones entre variables en la forma de nivel, podemos interesarnos por las relaciones en la forma de crecimiento. Ahora bien, si el término de error en (12.1.8) satisface los supuestos usuales de los MCO, sobre todo el de inexistencia de autocorrelación, podemos probar que el término de error vt en ( ) está autocorrelacionado. (La prueba se encuentra en el apéndice 12A, sección 12A.1.) Los modelos como ( ) se denominan modelos dinámicos de regresión; es decir, son mo- delos con regresadas rezagadas. Estudiaremos con detalle estos modelos en el capítulo 17. Lo importante del ejemplo anterior es que a veces la autocorrelación puede inducirse como resultado de transformar el modelo original. No estacionariedad Mencionamos en el capítulo 1 que, al trabajar con datos de series de tiempo, quizá habría que averiguar si una determinada serie de tiempo es estacionaria. Aunque el tema de no estacionarie- dad se analiza con mayor detalle en los capítulos de econometría de series de tiempo de la parte 5 del libro, una serie de tiempo es estacionaria, de manera informal, si sus características (por ejemplo, media, varianza y covarianza) son invariantes respecto del tiempo; es decir, no cambian en relación con el tiempo. Si no es así, tenemos una serie de tiempo no estacionaria. Como veremos en la parte 5, en un modelo de regresión como (12.1.8) es muy probable que Y y X sean no estacionarias, y por consiguiente, que el error u también sea no estacionario.7 En ese caso, el término de error mostrará autocorrelación. Así, en resumen, hay varias razones por las que el término de error en un modelo de regresión pueda estar autocorrelacionado. En lo que resta del capítulo investigaremos con cierto detalle los problemas planteados por la autocorrelación y lo que se puede hacer al respecto. Cabe notar también que la autocorrelación puede ser positiva [figura 12.3a)] o negativa, aun- que la mayoría de las series de tiempo económicas por lo general muestra autocorrelación posi- tiva, pues casi todas se desplazan hacia arriba o hacia abajo en extensos periodos y no exhiben un movimiento ascendente y descendente constante, como el de la figura 12.3b). 2 Estimación de MCO en presencia de autocorrelación ¿Qué sucede con los estimadores de MCO y sus varianzas si introducimos autocorrelación en las perturbaciones con la suposición de que E(ut ut+s) /= 0 (s /= 0), pero conservamos todos los demás supuestos del modelo clásico?8 Observe de nuevo que ahora utilizamos el subíndice t en las perturbaciones para destacar que se trata de datos de series de tiempo. Regresamos al modelo de regresión de dos variables para explicar sus ideas básicas, a saber, Yt = β1 + β2 Xt + ut. Para orientar el camino, ahora debemos suponer el mecanismo que gene- ran las ut, pues E(ut ut+s) /= 0 (s /= 0) es muy general como supuesto para ser de alguna utilidad error, que obviaente es diferente de cero (¿por qué?). t t


Descargar ppt "11.7 Ejemplos para concluir"

Presentaciones similares


Anuncios Google