La descarga está en progreso. Por favor, espere

La descarga está en progreso. Por favor, espere

MODELO DE SERIES DE TIEMPO

Presentaciones similares


Presentación del tema: "MODELO DE SERIES DE TIEMPO"— Transcripción de la presentación:

1 MODELO DE SERIES DE TIEMPO
LUIS MIGUEL GALINDO HORACIO CATALÁN FACULTAD DE ECONOMÍA

2 Captura las regularidades de las series económicas
INTRODUCCIÓN: Captura las regularidades de las series económicas Principales características de las series económicas; Tendencia Ciclos Estacionalidad No linealidad Base para los modelos estructurales ARIMA: Modelos de pronóstico No se hacen supuestos de valoración entre variables Dr. Galindo

3 Utiliza series estacionarias con un ARMA Estimación
INTRODUCCIÓN: Método de Box-Jenkins Utiliza series estacionarias con un ARMA Estimación Pruebas de diagnostico Dr. Galindo

4 Frequency domain: Analiza los movimientos cíclicos
INTRODUCCIÓN: Análisis: Time domain: analiza las relaciones entre distintas observaciones en el tiempo Frequency domain: Analiza los movimientos cíclicos  Análisis complementarios Dr. Galindo

5 MARCO GENERAL: Una serie de tiempo consiste en un conjunto de observaciones de una variable (xt) con información a intervalos similares de tiempo Proceso estocástico (xt) es una secuencia (y1, y2,…, yt) de variables aleatorias Dr. Galindo

6 ANÁLISIS DE PATRONES REGULARES EN LAS VARIABLES ECONÓMICAS:
TENDENCIA Modelo de regresión simple: (1) Una tendencia se traduce en un crecimiento promedio importante que se puede ilustrar como: (2) Dr. Galindo

7 ANÁLISIS DE PATRONES REGULARES EN LAS VARIABLES ECONÓMICAS:
Son modelos distintos: TSP DSP Pueden existir cambios en la tendencia: T, T2, no lineal, cambio estructural Dr. Galindo

8 ANÁLISIS DE PATRONES REGULARES EN LAS VARIABLES ECONÓMICAS:
ESTACIONALIDAD Una modificación de la ecuación (2) es: (3) El R2 de la regresión (3) indica el grado de estacionalidad Existen distintos patrones de estacionalidad Ojo: cuidado con la constante Dr. Galindo

9 ANÁLISIS DE PATRONES REGULARES EN LAS VARIABLES ECONÓMICAS:
OBSERVACIONES EXTREMAS Pueden existir cambios de régimen. Ver los datos en primeras diferencias: (4) Ver los datos con una recta de regresión. Dr. Galindo

10 ANÁLISIS DE PATRONES REGULARES EN LAS VARIABLES ECONÓMICAS:
HETEROCEDASTICIDAD CONDICIONAL Observaciones que se salen vienen en clusters (5)  ρ > 0 : varianzas tienen una correlación positiva Dr. Galindo

11 ANÁLISIS DE PATRONES REGULARES EN LAS VARIABLES ECONÓMICAS:
NO LINEALIDAD Causas: Existen asimetrías Existen cambios estructurales Dr. Galindo

12 ANÁLISIS DE PATRONES REGULARES EN LAS VARIABLES ECONÓMICAS:
Una formalización de la asimetría: (6) Una variable indicador que permite que el valor absoluto de la tasa de cambio varié entre dos estados. Dr. Galindo

13 ANÁLISIS DE PATRONES REGULARES EN LAS VARIABLES ECONÓMICAS:
EXISTENCIA DE PATRONES REGULARES (7) Dr. Galindo

14 ANÁLISIS DE PATRONES REGULARES EN LAS VARIABLES ECONÓMICAS:
Un proceso estocástico es estrictamente estacionario en el caso donde las propiedades de las series no son afectadas por la distancia al origen. En este caso, la probabilidad conjunta de distribución para cualquier conjunto de datos de la serie es similar a la de otro conjunto de datos de la misma serie. Dr. Galindo

15 ANÁLISIS DE PATRONES REGULARES EN LAS VARIABLES ECONÓMICAS:
 Además con distribuciones similares se cumple que: (1.1) (1.2) (1.3) Dr. Galindo

16 ANÁLISIS DE PATRONES REGULARES EN LAS VARIABLES ECONÓMICAS:
Una serie estacionaria débil o estacionaria de segundo orden o estacionaria de covarianzas es en el caso donde la media y la varianza son constantes. Un proceso estocástico estacionario es Gausssiano en el caso donde la distribución conjunta es normal. Dr. Galindo

17 ANÁLISIS DE PATRONES REGULARES EN LAS VARIABLES ECONÓMICAS:
Ruido Blanco: es una serie estacionaria que no se encuentra autocorrelacionada a lo largo del tiempo y por tanto tiene covarianzas cero: Dr. Galindo

18 ANÁLISIS DE PATRONES REGULARES EN LAS VARIABLES ECONÓMICAS:
Ruido Blanco independiente: indica que yt no esta autocorrelacionada y que es estadísticamente independiente: Ruido Blanco Gaussiano: indica que no sólo yt esta generado por una distribución normal: Dr. Galindo

19 PROPIEDADES DEL RUIDO BLANCO:
“El ruido blanco no tiene memoria” “el shock es uno y desaparece” Los shocks son temporales. Los shocks no afectan el valor de la media: La variable tiene reversión a la media. La línea central es un atractor. Un shock no altera los pronósticos. No existe información en el shock reciente que permite mejorar los pronósticos porque no existe autocorrelación Dr. Galindo

20 PROPIEDADES DEL RUIDO BLANCO:
La varianza del error de pronóstico esta acotada. Esto es, el error de pronóstico es la diferencia entre el valor real y el pronosticado: Con ruido blanco gaussiano existe un 95% de probabilidad de que yt cae dentro de dos desviaciones estandares de la media: Dr. Galindo

21 PROPIEDADES DEL RUIDO BLANCO:
Una variable aleatoria independiente e idependiente distribuida (iid) es una secuencia de variables aleatorias con las siguientes propiedades: (constante no necesariamente igual a cero) la varianza de yt es constante e independiente del tiempo (γ2) yt es independiente de cualquier otro yt-j Nota: las dos primeras propiedades son similares al ruido blanco y la tercera enfatiza la independencia ya que no siempre correlaciones iguales a cero implica necesariamente independencia. Dr. Galindo

22 ESTADISTICOS DE DEPENDENCIA TEMPORAL:
Objetico: Identificar las características de las series Ejemplo: Erogodicidad: Observaciones muy separadas no están autocorrelacionadas. Función de autocovarianzas: La función de autocovarianzas resume el patrón de dependencia temporal de un proceso estocástico (1) Dr. Galindo

23 ESTADISTICOS DE DEPENDENCIA TEMPORAL:
La covarianza de una variable sobre si misma es su varianza (2) Nota: la autocovarianza cambia de escala. Dr. Galindo

24 ESTADISTICOS DE DEPENDENCIA TEMPORAL:
La función de autocorrelación (ACF) o correlograma estima la magnitud de la relación o correlación entre distintos puntos de la variable. Estima la fuerza y el rezago de la memoria del proceso (3) El coeficiente de correlación se ubica entre -1 y 1 Supuesto de una varianza común (3.1) Dr. Galindo

25 ESTADISTICOS DE DEPENDENCIA TEMPORAL:
La función muestral de autocorrelación (SACF): Resume la dependencia temporal del proceso estocástico pero considerando la información observada (4) La función de impulso respuesta es un shok impulso en еt que va a impactar a yt Dr. Galindo

26 ESTADISTICOS DE DEPENDENCIA TEMPORAL:
Las correlaciones parciales muestales (PACF) son el coeficiente de la regresión estimada En lo general, una proporción de la correlación entre yt, yt-k se debe a la correlación con los términos intermedios. Entonces las autocorrelaciones parcial es eliminan ese efecto. Nota: Estos PACF pueden obtenerse de las ecuaciones de Yale-Walker Dr. Galindo

27 ESTADISTICOS DE DEPENDENCIA TEMPORAL:
En el caso donde t → ∞ entonces γk se distribuye normal y la varianza de la distribución corresponde al reciproco del tamaño de la muestra: (5) Los intervalos de confianza que incluyen al 95 % de los casos son: (5.1) Dr. Galindo

28 ESTADISTICOS BASICOS:
La distribución de la función muestral de autocorrelación es: (6) Intuición: Obteniendo una normalización y despejando: (6.1) La desviación estándar o varianza es igual por el 1 elevando al cuadrado en ambos de (6.1): (6.2) Dr. Galindo

29 PRUEBAS POR TMANTEN (Q):
H0: Los coeficientes de correlación son iguales a cero Box Pierce (1970): El estadístico BP se distribuye como una λ2(m) (7.1) Dr. Galindo

30 PRUEBAS POR TMANTEN (Q):
Ljung-Box (1978): El estadístico LB se distribuye como una λ2(m) Esta prueba tiene mejores propiedades muestrales Nota: al aumentar la muestra se cancela (T+2) con (T-k) y entonces LB equivale a BP Dr. Galindo

31 EL OPERADOR DE REZAGOS:
(1) (1.1) (1.2) (1.3) Dr. Galindo

32 POLONOMIO DE REZAGOS: (2) (2.1) Dr. Galindo

33 La suma infinita converge: (3)
POLONOMIO DE REZAGOS: Drymes, P. J. (1981); distributed lags: Problems of formation, Amsterdam: North Holland. La suma infinita converge: (3) Ello implica en el polinomio de rezagos que: (3.1) Dr. Galindo

34 Los coeficientes indican la forma en que yt depende del pasado.
EJEMPLO ECONÓMICO: (4) Los coeficientes indican la forma en que yt depende del pasado. El pasado reciente importa más. Ejemplo AR(1) (5) (5.1) Dr. Galindo

35 EJEMPLO ECONÓMICO: Sustituyendo (5.1) en (5): (5.2) Despejando (5.3)
Dr. Galindo

36 EJEMPLO ECONÓMICO: Sustituyendo (5.4) (5.5) (5.6) Dr. Galindo

37 TEOREMA DE DESCOMPOSICIÓN DE WOLD:
Teorema de descomposición de Wold indica que cualquier serie estocástica estacionaria débil y no determínistica puede representarse como una combinación lineal o un filtro de una secuencia de varianles aleatorias no correlacionados(a) Dr. Galindo

38 TEOREMA DE DESCOMPOSICIÓN DE WOLD :
Las características de a son variables aleatorias no correlacionadas, conocidas como una secuencia de procesos de ruido blanco: Dr. Galindo

39 TEOREMA DE DESCOMPOSICIÓN DE WOLD :
El teorema de descomposición de Word indica que: Toda serie de covarianza estacionaria puede representarse como una combinación lineal de sus innovaciones (1) Dr. Galindo

40 TEOREMA DE DESCOMPOSICIÓN DE WOLD :
Las medias y varianzas no condicionales del proceso lineal son (Diebold, 133) (2.1) (2.2) Dr. Galindo

41 TEOREMA DE DESCOMPOSICIÓN DE WOLD:
Las medias y varianzas condicionales del proceso lineal : (2.3) Dr. Galindo

42 TEOREMA DE DESCOMPOSICIÓN DE WOLD:
(2.4) La varianza condicional e incondicional son una constante fija. ARCH: modelos que cambian la varianza condicional con el conjunto de información. Dr. Galindo

43 INTRODUCCIÓN A LOS MODELOS ARMA:
( Herson p.35) Ejemplo: media y varianza de un R. W: (1) Resolviendo “desde el principio”: (1.1) (1.2) (1.3) Dr. Galindo

44 INTRODUCCIÓN A LOS MODELOS ARMA:
Nota: el drift domina la serie: Supuestos: Dr. Galindo

45 INTRODUCCIÓN A LOS MODELOS ARMA:
Ruido blanco coloreado: (2) Dr. Galindo

46 RAÍCES UNITARIAS: (1) (2) (3)
Se conoce como el polinomio característico. La solución al polinomio se obtiene obteniendo las raíces del polinomio característico: (4) Entonces  El valor que satisface la ecuación se conoce como la raíz de esta ecuación. Dr. Galindo

47 Para la ecuación tiene una raíz unitaria.
RAÍCES UNITARIAS: Ejemplo: Para la ecuación tiene una raíz unitaria.  La serie en primeras diferencia es una serie estacionaria Dr. Galindo

48 Ejemplo: AR(2): (Herson, 221) (6) (7) Factorizando: (8)
RAÍCES UNITARIAS: Ejemplo: AR(2): (Herson, 221) (6) (7) Factorizando: (8) Condición necesaria: que las raíces del polinomio son mayores que uno en valor absoluto Dr. Galindo

49 RAÍCES UNITARIAS: Ejemplo AR(3): (Brooks, pp 241) (1) (2) (3)
La ecuación característica Dr. Galindo

50 RAÍCES UNITARIAS: Si existe una raíz unitaria entonces el polinomio característico se puede representar como: Dr. Galindo

51 Estabilidad  Estacionariedad (no necesariamente a la inversa).
RAÍCES UNITARIAS: La condición necesaria y suficiente para la estabilidad es que las raíces del polinomio característico tengan modulo superior a uno. Estabilidad  Estacionariedad (no necesariamente a la inversa). Dr. Galindo

52  Las raíces están fuera del círculo unitario.
RAÍCES UNITARIAS: Una serie no tiene que diferenciarse en el caso donde la solución del polinomio característico es:  Las raíces están fuera del círculo unitario. Dr. Galindo

53 MEDIA Y VARIANZA DEL AR(1):
(2) (3) Sustituyendo Y suponiendo que (4) (5) Dr. Galindo

54 MEDIA Y VARIANZA DEL AR(1):
Remplazando (6) Multiplicando: (7) (8) (9)  La suma infinita de un número geométricamente declinando es Dr. Galindo

55 MEDIA Y VARIANZA DEL AR(1):
Nota: la inclusión de la constante: Restando la media a ambos lados (1) despejando: (2) (3) Dr. Galindo

56 MEDIA Y VARIANZA DEL AR(1):
entonces imponiendo imponer un RW Caso general: (4) (5) Dr. Galindo

57 por el teorema de descomposición de Wold (8) (9)
VARIANZA: (6) supuesto (7) por el teorema de descomposición de Wold (8) (9) Dr. Galindo

58 la suma infinita dada que converge a: (12)
VARIANZA: (10) El valor esperado de los términos cruzados es cero ya que los errores no están autocorrelacionados (11) la suma infinita dada que converge a: (12) Dr. Galindo

59 FORMA ALTERNATIVA DE OBTENER LA MEDIA Y LA VARIANZA:
(1) (2) (3) (4) media: (5) Dr. Galindo

60 Con μ=0 (6) (7) varianza: (8)
FORMA ALTERNATIVA DE OBTENER LA MEDIA Y LA VARIANZA: Con μ=0 (6) (7) varianza: (8) Dr. Galindo

61 La media y varianza condicional del AR(1): (1)
FORMA ALTERNATIVA DE OBTENER LA MEDIA Y LA VARIANZA: La media y varianza condicional del AR(1): (1) (2) Dr. Galindo

62 LA COVARIANZA DE UN AR(1):
supuesto entonces: (2) substituyendo por su representación como descomposición de Wold. Nota: los cuadrados del phi vienen porque es la substitución del AR(1): (3) Dr. Galindo

63 LA COVARIANZA DE UN AR(1):
Haciendo la multiplicación de (3): (4) ello implica que: (5) Dr. Galindo

64 LA COVARIANZA DE UN AR(1):
factorizando: (6) por convergencia: (7) Dr. Galindo

65 LA COVARIANZA DE UN AR(1):
Para la covarianza con dos rezagos: (8) sustituyendo (9) Haciendo la multiplicación: (10) Dr. Galindo

66 LA COVARIANZA DE UN AR(1):
Substituyendo por la varianza: (11) Factorizando: (12) (13) Dr. Galindo

67 LA COVARIANZA DE UN AR(1):
Así, la covarianza para el tercer rezago: (14) Para k rezagos: (15) Dr. Galindo

68 LA COVARIANZA DE UN AR(1):
Así, la ACF: El coeficiente de correlación es el coeficiente parcial elevado al exponente respectivo. El uso de las ecuaciones Yule-Walker. Dr. Galindo

69 LA COVARIANZA DE UN AR(1):
Como entonces: ejemplo de correlaciones teóricos: Dr. Galindo

70 LA FUNCIÓN DE AUTOCORRELACIÓN PARCIAL:
(PACF): Este estadístico mide la correlación entre la observación actual y aquella k periodos anteriores, después de controlar por las observaciones intermedias.  un AR(ρ), sólo tiene coeficientes de correlación parciales distintos de cero hasta el rezago ρ. Dr. Galindo

71 LA FUNCIÓN DE AUTOCORRELACIÓN PARCIAL:
(1) puede obtenerse de las ecuaciones de Yule-Walker. Las autocorrelaciones parciales se distribuyen, para grandes muestras, con media cero y varianza ; entonces: Dr. Galindo

72 Un MA es una combinación de ruidos blancos: (1) (2) (3)
PROCESOS MA : Un MA es una combinación de ruidos blancos: (1) (2) (3) Dr. Galindo

73 PROCESOS MA : Dr. Galindo MA(1): (1) Media: (2) Varianza: (3)
Covarianza: (4) Dr. Galindo

74 PROCESOS MA : MA(2) (1) Media: (2) Varianza: (3) Dr. Galindo

75 Substituyendo por el MA(2) (4) (5) (6)
PROCESOS MA : Substituyendo por el MA(2) (4) (5) (6) Dr. Galindo

76 PROCESOS MA : Dr. Galindo La covarianza del MA(2): (7) (8)
Sustituyendo: (9) Multiplicando: (10) (11) Dr. Galindo

77 PROCESOS MA : La covarianza con 2 rezagos es: (12) (13) Sustituyendo:
(14) Entonces: (15) Dr. Galindo

78 PROCESOS MA : La covarianza en el rezago 3: (16) (17) Sustituyendo:
(18) Entonces (19)  Dr. Galindo

79 PROCESOS MA : La ACF del MA(2): Para ρ1: (20) Para ρ2: (21) Para ρ3
Dr. Galindo

80 CONDICIÓN DE INVERTIBILIDAD DEL MA:
Un MA se puede transformar en un AR Ejemplo: (1) (2) Rezagando un periodo: (3) Dr. Galindo

81 CONDICIÓN DE INVERTIBILIDAD DEL MA:
Sustituyendo (3) en (1): (4) Despejando: (5) Sustituyendo recursivamente , se genera un AR infinito. El término converge a cero con con MA es invertible. Dr. Galindo

82 CONDICIÓN DE INVERTIBILIDAD DEL MA:
(1) Entonces: El polinomio característico es: Dr. Galindo

83 CONDICIÓN DE INVERTIBILIDAD:
El MA(q) requiere para ser invertible que las raíces de la ecuación característica deben ser mayores que uno en valor absoluto. La condición de invertibilidad es matemáticamente igual que la condición de estacionariedad. Esta condición permite que la serie converja. Dr. Galindo

84 PROPIEDADES DE INVERTIBILIDAD DEL AR(ρ):
Ejemplo: (1) (2) Sustituyendo: (3) Dr. Galindo

85 PROPIEDADES DE INVERTIBILIDAD DEL AR(ρ):
Multiplicando: (4) Substitución infinita: (5) Dr. Galindo

86 Un AR(2): Dr. Galindo (1) Media: (2)
Un AR(2) es estacionario si los parámetros cumplen con: 1. 2. 3. (Mills pp16, financial series) Dr. Galindo

87 Explicación intuitiva: (10.1) Ecuación diferencial homogénea: (10.2)
Un AR(2): Explicación intuitiva: (10.1) Ecuación diferencial homogénea: (10.2) Dr. Galindo

88 La ecuación cuadrática se satisface con las siguientes raíces:
Un AR(2): La solución de (10.2) depende de las raíces de la ecuación característica: (10.3) La ecuación cuadrática se satisface con las siguientes raíces: Dr. Galindo

89 Explicación intuitiva AR: (1) Con: La relación de los parámetros:
Un AR(2): Explicación intuitiva AR: (1) Con: La relación de los parámetros: La ecuación característica es: Dr. Galindo

90 PROCESO ARMA: (1) AR puro: (2) MA para: (3) Dr. Galindo

91 PROCESO ARMA: Las características de un proceso ARMA combinan las características de un AR y un MA. Las principales características de estos procesos son: AR(ρ): Un ACF que se extiende infinitamente pero que derive geométricamente Un PACF que es cero para valores superiores a ρ. MA(q): Un ACF que se corta después del rezago q. Una caída geométrica del PACF que se extiende infinitamente. Dr. Galindo

92 La ACF de un AR tiene la forma del PACF del MA.
PROCESO ARMA: La ACF de un AR tiene la forma del PACF del MA. La ACF del MA tiene la forma del PACF del AR. ARMA: Un ACF que decae geométricamente. Un PACF que decae geométricamente. Dr. Galindo

93 Para valores mayores a q ka ACF se comportará como el AR(ρ)
PROCESO ARMA: Media del ARMA: Para valores mayores a q ka ACF se comportará como el AR(ρ) domina en el largo plazo el AR(ρ). Dr. Galindo

94 PROPIEDADES DE UN ARMA (1,1):
(Griffiths, Hiil y Judge, pp 663) (1) Entonces la varianza es una desviación sobre la media: (2) Dr. Galindo

95 PROPIEDADES DE UN ARMA (1,1):
Como: (3) Entonces con (4) (5) Dr. Galindo

96 PROPIEDADES DE UN ARMA (1,1):
De donde: Entonces la función de autocorrelación es: (6) (7)  La función de autocorrelación tiene las características de ambos procesos AR y MA. Dr. Galindo

97 FACTORES COMUNES EN UN MODELO ARMA
(Harre pp29) ARMA (2,1): (1) Factorizando AR: Entonces: (2)  AR(1): Dr. Galindo

98 RESUMEN: AR(1) MA(1) Dr. Galindo

99 RESUMEN: MA(2): MA(q): Dr. Galindo

100 PRONOSTICOS CON UN ARMA (Brooks, pp282):
El pronóstico con un ARMA es un ejercicio de estimar la esperanza condicional: (1) Dr. Galindo

101 PRONOSTICOS CON UN ARMA (Brooks, pp282):
Ejemplo de un MA(3): (2) Pronósticos: (3.1) (3.2) (3.3) Dr. Galindo

102 PRONOSTICOS CON UN ARMA (Brooks, pp282):
Se utilizan los valores condicionales no las medias sin condicionar que es cero. En (3.3) se desconoce y en el cuarto momento El Ma(3) tiene memoria para tres periodos y por tanto pronósticos mayores a 4 colapsan al intercepto. Dr. Galindo

103 PRONÓSTICOS DE UN AR(ρ):
Ejemplo AR(2): (1) (1.1) (1.2) (1.3) El pronóstico de un periodo adelante lo da la constante más los coeficientes de los calores rezagados. Dr. Galindo

104 EJEMPLO DE PROÓSTICOS: (Griffiths, Cartei y Hill, pp 675)
(1) (2) (3) (4) Dr. Galindo

105 MODELO DE SERIES DE TIEMPO
LUIS MIGUEL GALINDO HORACIO CATALÁN FACULTAD DE ECONOMÍA


Descargar ppt "MODELO DE SERIES DE TIEMPO"

Presentaciones similares


Anuncios Google