PRUEBAS DE DIAGNÓSTICO Instructor: Horacio Catalán Alonso CURSO INTERNACIONAL: CONSTRUCCIÓN DE ESCENARIOS ECONÓMICOS Y ECONOMETRÍA AVANZADA.

Slides:



Advertisements
Presentaciones similares
PROPIEDADES ESTADÍSTICAS DE LOS ESTIMADORES
Advertisements

FACULTAD DE ECONOMÍA UNAM Maestría en Economía
Definición del Modelo de Regresión Simple Estimaciones por MCO Método de MCO Valores Esperados y Varianzas por MCO.
REGRESIÓN LINEAL MÚLTIPLE TEMA INTRODUCCIÓN 2 x1x1 Y x2x2 x3x3 xKxK.
Contraste de Hipotesis
ANÁLISIS ESTADÍSTICO de los RESULTADOS DEL AJUSTE
Econometría MSc. Daisy Espallargas Ibarra. Cumplimiento de los Supuestos del Modelo  No Autocorrelación Serial  Bibliografía: Econometría, Damodar N.
LEONARDO LÓPEZ C. ECONOMIA ESTADISTICA COMPUTARIZADA PARALELO: 261.
TEMA 3: ESTADÍSTICA BIDIMENSIONAL. ÍNDICE: 1.- Relación estadística: correlación. 2.- Diagramas de dispersión o nube de puntos. 3.- Tablas de frecuencia.
ESTADÍSTICA II Ing. Danmelys Perozo MSc. Blog:
Introducción. Si se revisa la literatura, los principales autores, se encuentra que no existe una única definición de econometría. Etimológicamente: Econometría=
Free and Quick Translation of Anderson's slides1 Modelo de Regresión Lineal Simple y =  0 +  1 x + u.
ECONOMETRíA GECO Tema 7 (Libro M. Matilla et al. Tema 14) TENDENCIAS, RAÍCES UNITARIAS Y REGRESIONES ESPUREAS CONCEPTO DE TENDENCIA Tendencias.
PRUEBA DE HIPÓTESIS. 1. Una prueba de hipótesis consiste en contrastar dos hipótesis estadísticas. Tal contraste involucra la toma de decisión acerca.
REGRESIÓN Y CORRELACIÓN  REGRESIÓN Es un Proceso estadístico que consiste en predecir una variable a partir de otra utilizando datos anteriores. INGA.
1 Pronósticos, Series de Tiempo y Regresión Capítulo 3: Regresión Lineal Simple.
Recordatorio Estadística Paramétrica Se basa en el conocimiento que los datos presentan una distribución estadística conocida y cada distribución tiene.
DISTRIBUCIONES DE Probabilidad
Procedimiento completo de regresión múltiple
Valor que toma la variable aleatoria
ESTADÍSTICAS INFERENCIALES
Instituto Nacional de Estadística y Geografía
Curso de Elaboración de Pruebas Prof. Gerardo A. Valderrama M
Pedro Letelier Patricio Contreras
Continuación DE MCO.
Introducción a los modelos econométricos
Unidad 5. Capítulo VI. Sistemas lineales no homogéneos.
ESTADÍSTICA II Ing. Danmelys Perozo MSc.
MODELOS MULTIECUACIONALES
Clase 8: Contraste de Hipótesis
Regresion Multiple Varias variables explicativas
MODELOS MULTIECUACIONALES
CHI CUADRADO  2 OBJETIVOS –Describir situaciones donde es adecuado la utilización de la prueba de Chi Cuadrado (  2 ) –Formular Hipótesis para diferentes.
Temas Estimador de Efectos Fijos: utiliza una transformación para eliminar el efecto inobservable ai antes de la estimación Estimador de Efectos Aleatorios:
Analisis de Regresion Multiple
Correlación Lineal de Pearson y Regresión Lineal Simple
Grado de Administración y Dirección de Empresas
Analisis de Regresion Para dos Variables (poblacion y muestra)
REGRESÍON LINEAL SIMPLE
Estimación de parámetros: Estimación puntual y por intervalos
ECONOMETRIA I 3. MODELO LINEAL DE TRES VARIABLES
“Formulación de Hipótesis Estadística”
Principios de Estadística
Kriging Consideremos información de determinada propiedad en el yacimiento y puntos en los cuales se tiene la estimación dea partir de los puntos.
ANÁLISIS DE REGRESIÓN SIMPLE
ESTIMACIÓN (Inferencia Estadística) Intervalos de Confianza
Modelo de regresión lineal múltiple. Estimación de parámetros. Evaluación de la recta estimada. Diagnóstico del modelo. Detección, evaluación de puntos.
Análisis de Regresión Lineal Curso de Verano ENCUP: Introducción al análisis cuantitativo en ciencias sociales Javier Aparicio División de Estudios Políticos,
ANALISIS DE VARIANZA
Analisis de Regresion Para dos Variables.
Contraste de Hipotesis
Identificación de los efectos de los diseños experimentales.
Operador de Suma La Letra Griega ∑ (sigma) se usa para indicar una suma, de manera qué:
ICPM050 – ECONOMETRÍA tema 03: ESTIMACIÓN MODELO LINEAL SIMPLE
Analisis de Regresion Para dos Variables.
Analisis de Regresion Multiple
Regresión Lineal Simple
Contraste de Hipotesis
Modelo de Regresión Lineal Simple
Contraste de Hipotesis
Analisis de Regresion Para dos Variables (poblacion y muestra)
Analisis de Regresion Multiple
CURSO DE ESPECIALIZACIÓN FINANZAS CORPORATIVAS I MBA. Rafael Bustamante Romaní.
ANALISIS DE REGRESION SIMPLE
1 Afectados de cierto grado de INCERTIDUMBRE SIEMPRE HAY UN ERROR EN SU MEDIDA ESTABLECER LA FIABILIDAD DE LOS DATOS ¿Podemos evaluar la magnitud del error.
ESTUDIO DE MERCADO. MÉTODOS DE PROYECCIÓN ¿Qué es una proyección? Es una estimación del comportamiento de una variable en el futuro. Específicamente, se.
ESTADÍSTICA APLICADA  ZEUS DE JESÚS RODRÍGUEZ BUDA  GABRIELA MÁRQUEZ TORRES  MARÍA ENRIQUETA GIL CÓRDOVA  ELIÁN ANTONIO GONZALEZ GARCÍA  CRISTELL.
REGRESION LINEAL SIMPLE
Econometría financiera Retorno y riesgo. ¿Qué es la econometría financiera? La econometría consiste en dar un contenido empírico a un razonamiento económico.
VARIANZA Y Y COVARIANZA DE VARIABLES ALEATORIAS Estadística II MI. MARTHA PAMELA RAMÍREZ VELA ITESM CAMPUS SALTILLO 1.
Transcripción de la presentación:

PRUEBAS DE DIAGNÓSTICO Instructor: Horacio Catalán Alonso CURSO INTERNACIONAL: CONSTRUCCIÓN DE ESCENARIOS ECONÓMICOS Y ECONOMETRÍA AVANZADA

Selección del modelo econométrico

Elmodeloderegresiónmúltipleasumediverso supuestos estadísticos que determinan la validez de los econométricosasícomolainferenciaresultados estadística Y   β  U Asume principalmente Xregresoresfijos Xregresoresaleatorios conmuestrasindependientes E(U  )  0 E(U/  )  0

1)El término de error tiene media cero i E  u X   0 para i = 1,2,…,N 2)El término de error presneta varianza constante NNNN Euu X  2IEuu X  2I 3)No existe autocorrelación E  u i u j X   0 para todo i ≠ j 4)El término de error se distribuye como una normal d u X  N  0,  2 I  5)No existe correlación entre los regresores y el término de error E  u X   0 6)La forma funcional es lineal 7)Los parámetros del modelo son invariantes a lo largo de la muestra.

Teoría económica Modelo teórico Modelo estimable Proceso generador de información Datos observados Modelo estadístico F(X 1t, X 2t,..X nt ) E t [y t /  t ]= E t [y t /  t,y ti,  ]  [Z jt /X 1t,  2 ]+U t Estimación Mala especifcación Reparametrización  y t =  1  y t-i +  i  C t-i +U t Modelo econométrico final Aproximación de P.G.T. Simulación Pronóstico

1)Consistencia con la teoría económica. Implica que el modelo estimado debe satisfacer las restricciones impuestas por la teoría económica sobre la especificación inicial y los valores de los coeficientes. 2)El modelo es admisible respecto a los datos. La condición se refiere a que las predicciones de la ecuación estimada debe generar resultados que sean lógicos de acuerdo a la teoría económica. 3)Coherencia con los datos. El modelo debe reproducir adecuadamente el comportamiento de los datos. De manera que las innovaciones del modelo no deben presentar autocorrelación y heteroscedasticidad (deben ser ruido blanco).

4)Parámetros constantes. Esta condición es necesaria para poder utilizar el modelo con propósitos de simulación y pronóstico. 5)Condicionamiento válido. Se refiere que las variables explicativas deben ser exógenas débiles. De manera que los parámetros de interés son una función del modelo condicional y no existe información adicional que sea relevante para el modelo. 6)Englobamiento. El modelo final debe explicar las características básicas de los modelos previos.

Como identificar la mejor ecuación: Consistencia con la hipótesis teórica Coherencia con los datos (información sistemática)

NORMALIDAD

El modelo de regresión múltiple asume diverso supuestos estadísticos que determinan la validez de los resultados econométricos así como la inferencia estadística Y   β  U Representación matricial del modelo de regresión múltiple Normalidad. El término de error se distribuye como una función de densidad de probabilidad normal con media cero y varianza constante u u X~N 0, σ 2 I

a) Importancia del supuesto de normalidad En el contexto del modelo de regresión múltiple, los estimadores de MCO se distribuyen como una función de densidad de probabilidad normal 2 ˆ 11 u ,,   N X' X  N X' X Esta propiedad permite realizar inferencia estadística sobre el modelo a través de probar diferentes hipótesis en los valores de los estimadores t-Student´s F-estadística  2 ji-cuadrada

 El rechazo de normalidad en los errores afecta el valor de los estadísticos de las pruebas de hipótesis como el t-Student y F.Los valores de los estadísticos son sensibles a la distribución normal  El valor del estadístico ji-cuadrada también se ve afectado. Bajo condiciones de No-normalidad el valor crítico del ji-cuadrado se modifica  Los estimadores siguen siendo insesgados, pero cuando no se cumple el supuesto de normalidad se pierde eficiencia

Prueba de Normalidad Se basa en el tercer y cuarto momento de la distribución de los errores. Es decir el seso y la curtosis

Tercer momento de la distribución: Sesgo o Simetría 2 ˆˆ 1 ˆ  1/ 2  1 1 3 3   T t 1t 1 t t  T itt 1itt 1 i u TT T SK  u,ˆ u,ˆ ,ˆ,ˆ    ˆ 3  Se construye el coeficiente de sesgo o simetría (SK) EX  3EX  3 En una distribución normal el coeficiente de sesgo es igual acero

X_N NormalX_S1 Normal DensityDensity Sesgo a la izquierda Simetría negativa ˆ ˆ 3  0 0 3 3      ˆ 3   Media<Mediana<Moda

X_N NormalX_S2 Normal DensityDensity Sesgo a la derecha Simetría positiva ˆ 3 3  0 0 ˆˆ ˆ3 ˆ3    Media>Mediana>Moda

Cuarto momento de la distribución (Curtosis) EX  4EX  4 2 ˆˆ ˆ   1/ 2  1 11 1 4 4   T t 1t 1 t t  T t 1t 1 itit i u TT u T KC ,ˆ ,ˆ ,ˆ,ˆ   ˆ4  ˆ4  Se construye el coeficiente de curtosis (KC) En una distribución normal el coeficiente de curtosis es igual a 3

ˆ 4  3 3     ˆ4  ˆ4  KC  Exceso de curtosis, el coeficiente es mayor a 3 El coeficiente es menor a 3 ˆ 4  3 3     ˆ4  ˆ4  KC 

Hipótesis nula Hipótesis alternativa H 1 : SK  0yKC  3  0 1 KC  3  0H: SK  0y Se distribuye como una normal NO se distribuye como una normal El estadístico se denomina Jarque-Bera (JB) basado en el criterio de multiplicador de Lagrang e JB  T SK 2  T  KC  3  2 624

Bajo la hipótesis nula el estadístico JB se distribuye como una ji-cuadrada con dos grados de libertad, ya que es la suma de dos variables aleatorias normalizadas A un nivel de significancia del 5% el estadístico JB tiene como valor crítico el 5.99

Coeficiente de sesgo Coeficiente de curtosis

HETEROSCEDASTICIDAD

Se asume que los errores del modelo presentan una varianza constante a lo largo de la muestra Var(u )  E(u 2 )   2t Heteroscedasticidad se define como un patrón sistemático que presentan los errores donde su varianza no es constante Var(u )   2t

Varianza constante Heteroscedasticidad

Implicaciones del problema de Heteroscedasticidad Considerando el modelo de regresión múltiple Y  Xβ  u Los estimadores de mínimos cuadrados ordinarios β ˆ   X´X   1 X´Y La varianza del estimador se obtiene como: = − − ′ =´ −1′ ´ ´ −1−1

  TT T2T2 T1T1 2T 2T  1T1T T u2u2 u uu u u2u2  u2 u2 uT uT   u  u  (uu´)   u  u uu uu u2u uu uu uu uu u2u uu u u    u     La matriz de covarianzas y varianzas del error    TT T2T2T1T1 1T1T E(u2 )E(u2 )E(u u ) E(u u)E(u u) E(u2 )E(u2 )  E(u u ) E(uu´)     2T2T  2121  E(u2 )E(u u )E(u u) E(u2 )E(u u )E(u u) Varianza del error

T E(u) E(u)  E(u) E(u)   E(u)   Considerando que la covarianza de los términos de error son iguales a cero, es decir no hay autocorrelación = 0 Para ≠ 12 = 13 = ⋯ −1 = 0 El supuesto del modelo econométrico es que la varianza es constante en el tiempo o a lo largo de la muestra

2 0 11   σ 2I  σ 2I 00 00    σ 2  0 0   0 10 1  0 0  σ 2 0σ 2 0 E  uu´    0010 0010       0σ 20σ0σ 20σ La matriz de varianzas y covarianzas del término de error se define como: ˆ 2 T  k  1 u Se utiliza un estimador de la varianza de los errores T  t t S 2   ˆ 2   t  1 Donde k es el número de variables explicativas

−1−1 La varianza del estimador se define como: Matriz identidad = 2´ = 2´ −1−1 =´ −1′ ´ −1−1 Cuando existe un problema de heteroscedasticidad la matriz de covarianza es distinta a 2 ´= ≠ 2 La varianza del estimador se modifica: =´ −12′ ´ = 2 ´ −1−1 Podemos utilizar el estimador de la varianza

Consecuencias de la heteroscedasticidad 2 ´ −1 ≠´ −1′ ´ −1−1  La principal consecuencia de la heteroscedasticidad es que los estimadores de MCO pierden eficiencia  La construcción de los intervalos de confianza de los estimadores utiliza el error estándar de los errores, en consecuencia no son apropiados  La prueba t-Studentpierde potencia por que también utiliza el error estándar del estimador

Pruebas para detectar Heteroscedasticidad Prueba White de heterosecadasticidad En este caso la heteroscedasticidad del error puede estar asociado a las variables explicativas del modelo 2 = ()

Pruebas para detectar Heteroscedasticidad a) White: TérminosCruzados Esta prueba asume que la heteroscedasticdad es función de la variables independientes de la ecuación inicial Estimar el modelo: Y t   0   1 X t   2 Z t  u t Obtener la serie de los errores y estimar la regresión auxiliar

t tt u t2t ˆ   3 X t Z t   4 Z t   Z  e   0   1 X t   X Especificación de la prueba, por medio de la regresión auxiliar H 0 :  1   2   3   4   5  0 H 1 :  1  0,  2  0,  3  0,  4  0,  5  0 La Hipótesis nula asume que no existen problemas de heteroscedasticidad y la Hipótesis alternativa indica la presencia de problemas de heteroscedasticidad

La probabilidad del estadístico F indica que no se rechaza la hipótesis nula por lo tanto la varianza no depende de sus valores pasados NO HAY heteroscedasticidad

Prueba ARCH de Heteroscedasticidad En esta prueba se asume que la varianza de los errores es una función de sus propios valores pasados 2 = ( 2, 2, ⋯, 2 ) −1−2− Se utiliza en datos de series de tiempo. Los valores pasados de la varianza contienen toda la información relevante para explicar la varianza en el periodo actual

u ee 2 01t 1t01t 1t 2t2t ˆˆ   u  u H0: 1 0H0: 1 0 Especificación ARCH( 1 ) Estimar el modelo original Y t   0   1 X t   2 Z t  u t Obtener la serie de los errores y especificar la siguiente regresión auxiliar H1 : 1 0H1 : 1 0 No hay heteroscedasticidad Problemas de heteroscedasticidad

Especificación ARCH(2) t u ee 2 2t22t2 2 01t101t1 2t2t ˆˆˆ  u u    u   u 0 H:  1  0,  2  0 H 1 :  1  0,  2  0 No hay heteroscedasticidad Problemas de heteroscedasticidad El estadístico de la prueba se distribuye como una F 0 Rechazo de H 0

La probabilidad del estadístico F indica que no se rechaza la hipótesis nula por lo tanto la varianza no depende de sus valores pasados NO HAY heteroscedasticidad

Linealidad o Forma Funcional

El problema de una mala especificación de la forma funcional en el modelo, esta asociado a no considerar de manera correcta la relación entre la variable dependiente y la variable explicativa explicativa, por ejemplo 2 El modelo debería ser estimado como Por ejemplo: en un modelo de una sola variable explicativa ( 1 ) = Asumiendo que se omite un efecto de la variable ( 2 ) =

En la ecuación ( 1 ) el efecto entre la variable explicativa y la variable dependiente estaría definida como: = 1 Pero en la ecuación (2), que sería la especificación correcta entre las dos variables sería = Es el efecto no considerado en la primera ecuación. Esto genera que la interpretación de los resultados de la regresión no sean correctos. Es decir, no se mide correctamente la relación entre las variables

Prueba Ramsey-Reset Es una prueba en el contexto de variables omitidas Y  Xβ   z  u La variable Z se pude definir como una función no lineal Z  g(X)  g(X) 2 ....  g(X) k

Especificación de la prueba Las pruebas utilizadas para comprobar linealidad en el modelo. Se basan en rechazar que el modelo se pruede aproximar como una función polinómica Hipótesis nula H 0 : Lineal E  Y / X  x   g(X) Hipótesis alternativaH 1 : No lineal E  Y / X  x   g(X)  g(X) 2 ....  g(X) k

Prueba RESET modelo estimación Y  X   u Y ˆ  X  ˆ YˆYˆ  Y ˆ 2  Y ˆ 3 ...  Y ˆ k Aproximación a la función polinómica g (X)  g (X) 2 ....  g (X) k  m ˆ 3 12m12m Y uY uY  X    Y ˆ 2   Y   H 0 :  1   2     m  0 H 1 :  j  0 Regresión auxiliar

Sea estima el modelo Se estima la regresión auxiliar Estimado la variable dependiente Y t   0   1 X t  u t YˆtYˆt   ˆ 0   ˆ 1 X t t ww 2 2t2t ˆ Yt 0  1 X t   YYt 0  1 X t   Y Ejemplo RESET( 1 ): modelo simple de regresión Se plantea la siguiente prueba de hipótesis Hipótesis nulala forma funcional es lineal Hipótesis alternativa la forma funcional NO ES LINEAL H 0 :  2  0 H 1 :  2  0

Se utiliza una prueba F Modelo sin restricción Modelo con restricción ww 2 t01t2ttt01t2tt ˆ Y  X YY  X Y  RRSS  URSS  / m URSS /(T  k) F F  Y t   0   1 X t  u t Se define URSS.- suma de errores al cuadrado de la regresión sin restricción RRSS.- suma de errores al cuadrado de la regresión CON restricción m = es el número de restricciones k =Número de parámetros en la regresión auxiliar

Zona de No Rechazo H 0 Zona de RECHAZO H 0 F (m,T-k) al 5% de significancia Hipótesis nulala forma funcional es lineal Hipótesis alternativa la forma funcional NO ES LINEAL H 0 :  2  0 H 1 :  2  0

AUTOCORRELACIÓN

SUPUESTO: La covarianza de los términos de error es igual a cero Cov(u t u s )  E[u t u s ]  0t  s No existe autocorrelación. Los términos de error son estadísticamente independientes, no existe relación entre los errores Cunado el supuesto no se cumple el modelo presenta problemas de Autocorrelación Cov(u t u s )  0

Se asume que la relación entre los errores describe un proceso autorregresivo de orden uno (1) 1)u t   u t-1  ν t Donde < 1 2 t Var  ν    t Los supuestos E  ν   0 No están correlacionados los términos −1 y E  u t-1 ν t   0 Cúales son las características del término de error bajo el problema de autocorrelación:

u ˆ t   u ˆ t-1  ν t Ante un desajuste del modelo el error se mantiene en varios periodos Autocorrelación

No hay autocorrelación, los desajustes se corrigen rápidamente, no hay información sistemática

Se aplica valor esperado a la ecuación (1) E(u t )   E(u t  1 )  E(v t )  0 La varianza del término de error a partir de la ecuación (1) t-1t-1t  ν )2 ν )2 Var(u )  E(u 2 )  E(  u 2 tt-1tt-1t 2 22t-122t-1 t Var  u  Eu  E tu 2uν νtu 2uν ν t  E(ν 2 ) 2  E(u t-1 ν t ) Var(u )   2 E(u 2 )  tt-1 Igual a cero

νt σ2σ2 Var(u)   ν 2 22u22u22u22u2 2u2u  σ2 σ2    2 σ  ν1   2 ν1   2  2u2u Despejando para 2 El resultado importante es que la varianza del error depende del coeficiente rho Cuando rho se acerca al valor de uno la varianza crece, cuando rho se acerca al valor de cero la varianza del error es igual a 2

Que sucede con la covarianza del error E(u t-i u t- j ) (1-  2 )  2 2 Cov(u t u t-1 )    ν Desarrollando el caso de ( −1 ) Cov(u t u t-1 )  Cov((  u t-1  ν t )u t-1 )   Cov  u t-1 u t-1   Cov  ν t u t-1    Var  u t-1   E  ν t u t-1  Igual a cero Cov(u u)    2 tt-1u

t-2  ν t-1 )u t-2 )   2 Cov(uu)  Cov(νu) t-2t-2t-1t-2   Cov((  u   Cov(u t-1 u t-2 )  Cov(ν t u t-2 )   Cov(u t-1 u t-2 ) Cov(u t u t-2 )  Cov((  u t-1  ν t )u t-2 ) Cov(u u t-2t-2t-2t-2t-2t-2tt-2tt-2 )   2 Var(uu)   2 E(u 2 ) 2 σ2σ2 ν1   2 ν1   2 Cov(u t u t-2 )   Nota −2 = −1 + −1 Igual a cero

Cov(u u)    2 tt-1u 3 2 σ2σ2 σ2σ2 σ2σ2 ν1   2 ν1   2 ν1   2 ν1   2 ν1   2 ν1   2 Cov(u t u t-2 )   s Cov(u t u t-3 )    Cov(u t u t-s )   La covarianza de los errores depende de coeficiente de correlación

   1 T1T1T E(u)E(u)   E(u u) 1T21T2 E(utut)  E(utut)    E(u 2 )  E(u u)  La matriz de varianzas y covarianzas de los errores se modifica: Asumiendo que la varianza de los errores es constante σ 2 ν1   2 ν1   2 un E(u)  E(u)   E(u) E(u)  E(u)   

 1 21 2 u k2k2  Eut us  Eut us  Cov u t u s    11 11 v u   T 2  T 2    T 1  T 1   2  1   T  1  T  2  T  3  1   21   2  2 2 V   2   Se define una nueva matriz de varianzas y covarianzas

Consecuencias de la autocorrelación En el contexto de la representación matricial del modelo econométrico = + Las propiedades del término de error ~(0, 2 Ω) El estimador de mínimos cuadrados ordinarios sigue siendo lineal e insesgado, pero pierde eficiencia ~(, 2′ ~(, 2′ −1′Ω−1′Ω ′ −1)−1)

NO_AUTOCORRELACION AUTOCORRELACION Comparativo errores con y sin autocorrelación

Estadístico Durbin-Watson Se asume que los errores dependen del periodo anterior u t   u t  1   t

0 : = 0 La hipótesis nula ( 0 ) es que no existe autocorrelación. La hipótesis alternativa es que el parámetro rho sea diferente de cero : ≠ 0 Si rho es diferente de cero se puede plantear el caso de que 0. En este contexto Durbin y Watson plantean un estadístico cuya distribución tenga una hipótesis alternativa con dos alternativas 1 : < 0 2 : > 0

  T t T t DWDW t 1t 1 t 2t 2 22 t 1t 1 uˆ2uˆ2 uˆ uˆuˆ uˆ Durbin y Watson proponen un estadístico cuya distribución permita manejar dos límites: uno superior y otro inferior ≤ ≤ El estadístico propuesto es el denominado d o estadístico Durbin Watson, quese define como la razón de la suma del cuadrado de la primera diferencia de los residuales con respecto a la suma del cuadrado de los residuales

     TT tt t 1t 1t 1t 1 1 K exp  u 2 utut 1 u 2 utut 1  (1  )(1  ) 22 La distribución teórica del estadístico de Durbin- Watson se define como: De este manera se demuestra que el estadístico Durbin- Watson puede tomar valores entre cero y cuatro DW −1−1 0 1

Las zonas de H 0 y de la hipótesis alternativa de se definen a partir de los límites inferior y superior DW − < < 4 − Valores admisibles para DW

Tabla Estadístico Durbin-Watson

Para k = número de variables independientes (du, 4-du) EstáticaK = 2 (1.57, 2.43)T=30 AjusteK = 3 (1.65, 2.35)T=29 DinámicaK = 5 (1.84, 2.16)T=29 DiferenciaK = 2 (1.56, 2.44)T=29 ECMK = 6 (1.96, 2.04)T=28 Estática Diferencia Ajuste ECM Dinámica Estadísticos DW ecuaciones

     t t t t DW  Tt 1Tt 1 Tt 2Tt 2 2t 12t 1 tt 1tt 1 Tt 1Tt 1 Tt 2Tt 2 22 t 1t 1 uˆ2uˆ2 ) ˆ (u ˆ 2  2u ˆ u ˆ  u uˆ2uˆ2 uˆ uˆuˆ uˆ Desarrollando el estadístico Durbin-Watson        t T t T t T t Tt 1Tt 1 t 2t 2 t 1t 1 Tt 1Tt 1 t 2t 2 tt 1tt 1 Tt 1Tt 1 t 2t 2 uˆ2uˆ2 uˆ2uˆ2 uˆ2uˆ2 uˆ uˆuˆ uˆ  2 2 uˆ2uˆ2 uˆ2uˆ2 ≈ 1≈ 1 = ≈ 1= ≈ 1 DW  1  2   1  2  2   2(1   ) Si el DW se ubica entre 1.5 y 2.5 se puede asumir que no existe autocorrelación

La Durbin Watson es válida solo cuando las variables incluidas en la ecuación son exógenas. Durbin Watson pierde potencia cuando se incluyen los valores rezagadosde la variable dependiente en la ecuación de regresión. En este caso el valor del estadístico dw esta sesgado hacia 2 y puede por tanto indicar la independencia serial cuando en realidad existe un problema de autocorrelación.

Prueba de autocorrelación Breusch-Godfrey (LM-autocorrelación) Breusch,T.S. (1979) "Testing for Autocorrelation in Dynamic Linear Models",Australian Economic Papers, 17, 334–355

u ˆ t   0   1 u ˆ t  1   0   1 X t   2 Z t  e t Multiplicadores de Lagrange Y t   0   1 X t   2 Z t  u t Prueba LM(1) H 0 :  1  0 H 1 :  1  0 u ˆ t   0   1 u ˆ t  1   2 u ˆ t  2   0   1 X t   2 Z t  e t Prueba LM(2) H 1 :  1  0,  2  0 H:   0H:   0

Estadístico de la prueba. Se demuestra que el 2 de la regresión auxiliar multiplicada por los grados de libertad ( − ) 2 ~ 2 () Donde es el número de restricciones en la regresión auxiliar. El estadístico se distribuye como una ji-cuadrada Rechazo de 0 Zona de 0

Eviews también reporta un estadístico F, el resultado indica problemas de autocorrelación

ESTABILIDAD DE LOS PARÁMETROS

Supuesto de estabilidad de los estimadores La especificación del modelo econométrico asume que los estimadores permanecen estables a lo largo de la muestra. No se modifica el valor de los estimadores Modelo general ˆˆ Y t  X t   u t El valor de los estimadores no cambia en el tiempo Cuando el valor de los estimadores cambia se dice que el modelo presenta problemas de Cambio Estructural. La respuesta entre las variables cambia en el tiempo

Yt Xt t utYt Xt t ut Cambio estructural Consecuencias del cambio estructural a)El valor de los estimadores no miden adecuadamente la relación entre las variables, la respuesta de la variable dependiente cambia en el tiempo b)El modelo no puede ser utilizado para realizar pronóstico c)Genera sesgo en la distribución de los errores d)Es una causa de problemas de heteroscedasticidad

Estimación por mínimos cuadrados recursivos Es una serie de estimaciones por MCO. Donde la muestra para cada estimaciónse incrementa sucesivamente. Yi Xiˆ i uiYi Xiˆ i ui i =m,..., T

Prueba de Residuales Recursivos La posible inestabilidad de los estimadores podría verificarse examinando el comportamiento de los residuos que generan las estimaciones recursivas del modelo Su representación gráfica permite observar como el estimador cambia en el tiempo Por estimaciones recursivas se entienden aquellas en que la ecuación se estima repetidamente, con la utilización siempre del mayor subconjunto de los datos muestrales

Prueba CUSUM  X t  ˆ t  1 t / tt 2 X t 1t 1t 1t 1 1 x  x 1 x  x  Var( v)    Se estandariza la varianza Var( v t ) vtvt v~ v~  Para t= k+1,..., T Se calculan los residuales recursivos v t  Y t Se obtiene la varianza

Se construye la suma acumulada (CUSUM)  T v~jv~j CUSUM  W t  ˆ 2ˆ 2 j  k  1  ˆ 2  RSS/( T  k ) T Se espera que E(W t )=0 pero si los parámetros no son constantes diverge del cero

 k,  aT  k   T,  3aT  k  Límites de no rechazo  =0.05a= El gráfico dela suma acumulada de los residuales recursivos (CUSUM) respecto al tiempo permite verificar desviaciones sistemáticas de éstos desde su línea de cero que es el valor esperado Se definen un límite inferior y un límite superior para la trayectoria de la suma acumulada de los errores recursivos

3aT  k aT  k  aT  k  3aT  k k T

CUSUMCUSUM5% Significance CUSUMCUSUM5% Significance No hay cambio estructural, la suma acumulada esta dentro de los límites Problemas de cambio estructural sale de las bandas

Cusum cuadrado (CUSUMSQ). Una medida alternativa, aunque no equivalente a utilizar CUSUM, consiste en emplear los cuadrados de los residuos recursivos. De nuevo, la suma acumulada en el tiempo de estos residuos al cuadrado, conocida como CUSUM al cuadrado, permite comprobar desviaciones no aleatorias desde su línea de valor medio La serie de CUSUM al cuadrado (CUSUMSQ), debidamente estandarizada, tiene un valor esperado que va de cero en t=1 hasta uno al final de la muestra, t=T

CUSUM SQR w w T t t 2j2j t  k  1,...,TW~W~ 2j2j  j k 1j k 1 j k 1j k 1 t T  k E  W ~   t  k

La prueba CUSUM es un indicador de la instabilidad de la media condicional del modelo, no permite identificar las fechas de cambio La prueba CUSUMSQ esta asociado a cambios en la varianza de los errores, por lo tanto se sugiere aplicar previamente las pruebas de heteroscedasticidad Existen otras pruebas más eficientes en la detección de problemas de cambio estructural pero requieren una muestra de datos grande

Causas que generan el problema: 1)Choques externos o medidas de política económica que han afectado la evolución de la variables 2)El problema de heteroscedasticidad y forma funcional están relacionados con el cambio estructural 3)Es necesario incorporar más información estadística en el modelo, mediante otras variables explicativas y/o rezagos de las variables del modelo

Y Y Y Y4 Sin cambio estructuralCambio en el intercepto Cambio en la tendencia Cambio en el intercepto yla tendencia

PRUEBAS DE DIAGNÓSTICO Instructor: Horacio Catalán Alonso CURSO INTERNACIONAL: CONSTRUCCIÓN DE ESCENARIOS ECONÓMICOS Y ECONOMETRÍA AVANZADA