Descargar la presentación
La descarga está en progreso. Por favor, espere
1
MODELO DE SERIES DE TIEMPO
LUIS MIGUEL GALINDO HORACIO CATALÁN FACULTAD DE ECONOMÍA
2
Captura las regularidades de las series económicas
INTRODUCCIÓN: Captura las regularidades de las series económicas Principales características de las series económicas; Tendencia Ciclos Estacionalidad No linealidad Base para los modelos estructurales ARIMA: Modelos de pronóstico No se hacen supuestos de valoración entre variables Dr. Galindo
3
Utiliza series estacionarias con un ARMA Estimación
INTRODUCCIÓN: Método de Box-Jenkins Utiliza series estacionarias con un ARMA Estimación Pruebas de diagnostico Dr. Galindo
4
Frequency domain: Analiza los movimientos cíclicos
INTRODUCCIÓN: Análisis: Time domain: analiza las relaciones entre distintas observaciones en el tiempo Frequency domain: Analiza los movimientos cíclicos Análisis complementarios Dr. Galindo
5
MARCO GENERAL: Una serie de tiempo consiste en un conjunto de observaciones de una variable (xt) con información a intervalos similares de tiempo Proceso estocástico (xt) es una secuencia (y1, y2,…, yt) de variables aleatorias Dr. Galindo
6
ANÁLISIS DE PATRONES REGULARES EN LAS VARIABLES ECONÓMICAS:
TENDENCIA Modelo de regresión simple: (1) Una tendencia se traduce en un crecimiento promedio importante que se puede ilustrar como: (2) Dr. Galindo
7
ANÁLISIS DE PATRONES REGULARES EN LAS VARIABLES ECONÓMICAS:
Son modelos distintos: TSP DSP Pueden existir cambios en la tendencia: T, T2, no lineal, cambio estructural Dr. Galindo
8
ANÁLISIS DE PATRONES REGULARES EN LAS VARIABLES ECONÓMICAS:
ESTACIONALIDAD Una modificación de la ecuación (2) es: (3) El R2 de la regresión (3) indica el grado de estacionalidad Existen distintos patrones de estacionalidad Ojo: cuidado con la constante Dr. Galindo
9
ANÁLISIS DE PATRONES REGULARES EN LAS VARIABLES ECONÓMICAS:
OBSERVACIONES EXTREMAS Pueden existir cambios de régimen. Ver los datos en primeras diferencias: (4) Ver los datos con una recta de regresión. Dr. Galindo
10
ANÁLISIS DE PATRONES REGULARES EN LAS VARIABLES ECONÓMICAS:
HETEROCEDASTICIDAD CONDICIONAL Observaciones que se salen vienen en clusters (5) ρ > 0 : varianzas tienen una correlación positiva Dr. Galindo
11
ANÁLISIS DE PATRONES REGULARES EN LAS VARIABLES ECONÓMICAS:
NO LINEALIDAD Causas: Existen asimetrías Existen cambios estructurales Dr. Galindo
12
ANÁLISIS DE PATRONES REGULARES EN LAS VARIABLES ECONÓMICAS:
Una formalización de la asimetría: (6) Una variable indicador que permite que el valor absoluto de la tasa de cambio varié entre dos estados. Dr. Galindo
13
ANÁLISIS DE PATRONES REGULARES EN LAS VARIABLES ECONÓMICAS:
EXISTENCIA DE PATRONES REGULARES (7) Dr. Galindo
14
ANÁLISIS DE PATRONES REGULARES EN LAS VARIABLES ECONÓMICAS:
Un proceso estocástico es estrictamente estacionario en el caso donde las propiedades de las series no son afectadas por la distancia al origen. En este caso, la probabilidad conjunta de distribución para cualquier conjunto de datos de la serie es similar a la de otro conjunto de datos de la misma serie. Dr. Galindo
15
ANÁLISIS DE PATRONES REGULARES EN LAS VARIABLES ECONÓMICAS:
Además con distribuciones similares se cumple que: (1.1) (1.2) (1.3) Dr. Galindo
16
ANÁLISIS DE PATRONES REGULARES EN LAS VARIABLES ECONÓMICAS:
Una serie estacionaria débil o estacionaria de segundo orden o estacionaria de covarianzas es en el caso donde la media y la varianza son constantes. Un proceso estocástico estacionario es Gausssiano en el caso donde la distribución conjunta es normal. Dr. Galindo
17
ANÁLISIS DE PATRONES REGULARES EN LAS VARIABLES ECONÓMICAS:
Ruido Blanco: es una serie estacionaria que no se encuentra autocorrelacionada a lo largo del tiempo y por tanto tiene covarianzas cero: Dr. Galindo
18
ANÁLISIS DE PATRONES REGULARES EN LAS VARIABLES ECONÓMICAS:
Ruido Blanco independiente: indica que yt no esta autocorrelacionada y que es estadísticamente independiente: Ruido Blanco Gaussiano: indica que no sólo yt esta generado por una distribución normal: Dr. Galindo
19
PROPIEDADES DEL RUIDO BLANCO:
“El ruido blanco no tiene memoria” “el shock es uno y desaparece” Los shocks son temporales. Los shocks no afectan el valor de la media: La variable tiene reversión a la media. La línea central es un atractor. Un shock no altera los pronósticos. No existe información en el shock reciente que permite mejorar los pronósticos porque no existe autocorrelación Dr. Galindo
20
PROPIEDADES DEL RUIDO BLANCO:
La varianza del error de pronóstico esta acotada. Esto es, el error de pronóstico es la diferencia entre el valor real y el pronosticado: Con ruido blanco gaussiano existe un 95% de probabilidad de que yt cae dentro de dos desviaciones estandares de la media: Dr. Galindo
21
PROPIEDADES DEL RUIDO BLANCO:
Una variable aleatoria independiente e idependiente distribuida (iid) es una secuencia de variables aleatorias con las siguientes propiedades: (constante no necesariamente igual a cero) la varianza de yt es constante e independiente del tiempo (γ2) yt es independiente de cualquier otro yt-j Nota: las dos primeras propiedades son similares al ruido blanco y la tercera enfatiza la independencia ya que no siempre correlaciones iguales a cero implica necesariamente independencia. Dr. Galindo
22
ESTADISTICOS DE DEPENDENCIA TEMPORAL:
Objetico: Identificar las características de las series Ejemplo: Erogodicidad: Observaciones muy separadas no están autocorrelacionadas. Función de autocovarianzas: La función de autocovarianzas resume el patrón de dependencia temporal de un proceso estocástico (1) Dr. Galindo
23
ESTADISTICOS DE DEPENDENCIA TEMPORAL:
La covarianza de una variable sobre si misma es su varianza (2) Nota: la autocovarianza cambia de escala. Dr. Galindo
24
ESTADISTICOS DE DEPENDENCIA TEMPORAL:
La función de autocorrelación (ACF) o correlograma estima la magnitud de la relación o correlación entre distintos puntos de la variable. Estima la fuerza y el rezago de la memoria del proceso (3) El coeficiente de correlación se ubica entre -1 y 1 Supuesto de una varianza común (3.1) Dr. Galindo
25
ESTADISTICOS DE DEPENDENCIA TEMPORAL:
La función muestral de autocorrelación (SACF): Resume la dependencia temporal del proceso estocástico pero considerando la información observada (4) La función de impulso respuesta es un shok impulso en еt que va a impactar a yt Dr. Galindo
26
ESTADISTICOS DE DEPENDENCIA TEMPORAL:
Las correlaciones parciales muestales (PACF) son el coeficiente de la regresión estimada En lo general, una proporción de la correlación entre yt, yt-k se debe a la correlación con los términos intermedios. Entonces las autocorrelaciones parcial es eliminan ese efecto. Nota: Estos PACF pueden obtenerse de las ecuaciones de Yale-Walker Dr. Galindo
27
ESTADISTICOS DE DEPENDENCIA TEMPORAL:
En el caso donde t → ∞ entonces γk se distribuye normal y la varianza de la distribución corresponde al reciproco del tamaño de la muestra: (5) Los intervalos de confianza que incluyen al 95 % de los casos son: (5.1) Dr. Galindo
28
ESTADISTICOS BASICOS:
La distribución de la función muestral de autocorrelación es: (6) Intuición: Obteniendo una normalización y despejando: (6.1) La desviación estándar o varianza es igual por el 1 elevando al cuadrado en ambos de (6.1): (6.2) Dr. Galindo
29
PRUEBAS POR TMANTEN (Q):
H0: Los coeficientes de correlación son iguales a cero Box Pierce (1970): El estadístico BP se distribuye como una λ2(m) (7.1) Dr. Galindo
30
PRUEBAS POR TMANTEN (Q):
Ljung-Box (1978): El estadístico LB se distribuye como una λ2(m) Esta prueba tiene mejores propiedades muestrales Nota: al aumentar la muestra se cancela (T+2) con (T-k) y entonces LB equivale a BP Dr. Galindo
31
EL OPERADOR DE REZAGOS:
(1) (1.1) (1.2) (1.3) Dr. Galindo
32
POLONOMIO DE REZAGOS: (2) (2.1) Dr. Galindo
33
La suma infinita converge: (3)
POLONOMIO DE REZAGOS: Drymes, P. J. (1981); distributed lags: Problems of formation, Amsterdam: North Holland. La suma infinita converge: (3) Ello implica en el polinomio de rezagos que: (3.1) Dr. Galindo
34
Los coeficientes indican la forma en que yt depende del pasado.
EJEMPLO ECONÓMICO: (4) Los coeficientes indican la forma en que yt depende del pasado. El pasado reciente importa más. Ejemplo AR(1) (5) (5.1) Dr. Galindo
35
EJEMPLO ECONÓMICO: Sustituyendo (5.1) en (5): (5.2) Despejando (5.3)
Dr. Galindo
36
EJEMPLO ECONÓMICO: Sustituyendo (5.4) (5.5) (5.6) Dr. Galindo
37
TEOREMA DE DESCOMPOSICIÓN DE WOLD:
Teorema de descomposición de Wold indica que cualquier serie estocástica estacionaria débil y no determínistica puede representarse como una combinación lineal o un filtro de una secuencia de varianles aleatorias no correlacionados(a) Dr. Galindo
38
TEOREMA DE DESCOMPOSICIÓN DE WOLD :
Las características de a son variables aleatorias no correlacionadas, conocidas como una secuencia de procesos de ruido blanco: Dr. Galindo
39
TEOREMA DE DESCOMPOSICIÓN DE WOLD :
El teorema de descomposición de Word indica que: Toda serie de covarianza estacionaria puede representarse como una combinación lineal de sus innovaciones (1) Dr. Galindo
40
TEOREMA DE DESCOMPOSICIÓN DE WOLD :
Las medias y varianzas no condicionales del proceso lineal son (Diebold, 133) (2.1) (2.2) Dr. Galindo
41
TEOREMA DE DESCOMPOSICIÓN DE WOLD:
Las medias y varianzas condicionales del proceso lineal : (2.3) Dr. Galindo
42
TEOREMA DE DESCOMPOSICIÓN DE WOLD:
(2.4) La varianza condicional e incondicional son una constante fija. ARCH: modelos que cambian la varianza condicional con el conjunto de información. Dr. Galindo
43
INTRODUCCIÓN A LOS MODELOS ARMA:
( Herson p.35) Ejemplo: media y varianza de un R. W: (1) Resolviendo “desde el principio”: (1.1) (1.2) (1.3) Dr. Galindo
44
INTRODUCCIÓN A LOS MODELOS ARMA:
Nota: el drift domina la serie: Supuestos: Dr. Galindo
45
INTRODUCCIÓN A LOS MODELOS ARMA:
Ruido blanco coloreado: (2) Dr. Galindo
46
RAÍCES UNITARIAS: (1) (2) (3)
Se conoce como el polinomio característico. La solución al polinomio se obtiene obteniendo las raíces del polinomio característico: (4) Entonces El valor que satisface la ecuación se conoce como la raíz de esta ecuación. Dr. Galindo
47
Para la ecuación tiene una raíz unitaria.
RAÍCES UNITARIAS: Ejemplo: Para la ecuación tiene una raíz unitaria. La serie en primeras diferencia es una serie estacionaria Dr. Galindo
48
Ejemplo: AR(2): (Herson, 221) (6) (7) Factorizando: (8)
RAÍCES UNITARIAS: Ejemplo: AR(2): (Herson, 221) (6) (7) Factorizando: (8) Condición necesaria: que las raíces del polinomio son mayores que uno en valor absoluto Dr. Galindo
49
RAÍCES UNITARIAS: Ejemplo AR(3): (Brooks, pp 241) (1) (2) (3)
La ecuación característica Dr. Galindo
50
RAÍCES UNITARIAS: Si existe una raíz unitaria entonces el polinomio característico se puede representar como: Dr. Galindo
51
Estabilidad Estacionariedad (no necesariamente a la inversa).
RAÍCES UNITARIAS: La condición necesaria y suficiente para la estabilidad es que las raíces del polinomio característico tengan modulo superior a uno. Estabilidad Estacionariedad (no necesariamente a la inversa). Dr. Galindo
52
Las raíces están fuera del círculo unitario.
RAÍCES UNITARIAS: Una serie no tiene que diferenciarse en el caso donde la solución del polinomio característico es: Las raíces están fuera del círculo unitario. Dr. Galindo
53
MEDIA Y VARIANZA DEL AR(1):
(2) (3) Sustituyendo Y suponiendo que (4) (5) Dr. Galindo
54
MEDIA Y VARIANZA DEL AR(1):
Remplazando (6) Multiplicando: (7) (8) (9) La suma infinita de un número geométricamente declinando es Dr. Galindo
55
MEDIA Y VARIANZA DEL AR(1):
Nota: la inclusión de la constante: Restando la media a ambos lados (1) despejando: (2) (3) Dr. Galindo
56
MEDIA Y VARIANZA DEL AR(1):
entonces imponiendo imponer un RW Caso general: (4) (5) Dr. Galindo
57
por el teorema de descomposición de Wold (8) (9)
VARIANZA: (6) supuesto (7) por el teorema de descomposición de Wold (8) (9) Dr. Galindo
58
la suma infinita dada que converge a: (12)
VARIANZA: (10) El valor esperado de los términos cruzados es cero ya que los errores no están autocorrelacionados (11) la suma infinita dada que converge a: (12) Dr. Galindo
59
FORMA ALTERNATIVA DE OBTENER LA MEDIA Y LA VARIANZA:
(1) (2) (3) (4) media: (5) Dr. Galindo
60
Con μ=0 (6) (7) varianza: (8)
FORMA ALTERNATIVA DE OBTENER LA MEDIA Y LA VARIANZA: Con μ=0 (6) (7) varianza: (8) Dr. Galindo
61
La media y varianza condicional del AR(1): (1)
FORMA ALTERNATIVA DE OBTENER LA MEDIA Y LA VARIANZA: La media y varianza condicional del AR(1): (1) (2) Dr. Galindo
62
LA COVARIANZA DE UN AR(1):
supuesto entonces: (2) substituyendo por su representación como descomposición de Wold. Nota: los cuadrados del phi vienen porque es la substitución del AR(1): (3) Dr. Galindo
63
LA COVARIANZA DE UN AR(1):
Haciendo la multiplicación de (3): (4) ello implica que: (5) Dr. Galindo
64
LA COVARIANZA DE UN AR(1):
factorizando: (6) por convergencia: (7) Dr. Galindo
65
LA COVARIANZA DE UN AR(1):
Para la covarianza con dos rezagos: (8) sustituyendo (9) Haciendo la multiplicación: (10) Dr. Galindo
66
LA COVARIANZA DE UN AR(1):
Substituyendo por la varianza: (11) Factorizando: (12) (13) Dr. Galindo
67
LA COVARIANZA DE UN AR(1):
Así, la covarianza para el tercer rezago: (14) Para k rezagos: (15) Dr. Galindo
68
LA COVARIANZA DE UN AR(1):
Así, la ACF: El coeficiente de correlación es el coeficiente parcial elevado al exponente respectivo. El uso de las ecuaciones Yule-Walker. Dr. Galindo
69
LA COVARIANZA DE UN AR(1):
Como entonces: ejemplo de correlaciones teóricos: Dr. Galindo
70
LA FUNCIÓN DE AUTOCORRELACIÓN PARCIAL:
(PACF): Este estadístico mide la correlación entre la observación actual y aquella k periodos anteriores, después de controlar por las observaciones intermedias. un AR(ρ), sólo tiene coeficientes de correlación parciales distintos de cero hasta el rezago ρ. Dr. Galindo
71
LA FUNCIÓN DE AUTOCORRELACIÓN PARCIAL:
(1) puede obtenerse de las ecuaciones de Yule-Walker. Las autocorrelaciones parciales se distribuyen, para grandes muestras, con media cero y varianza ; entonces: Dr. Galindo
72
Un MA es una combinación de ruidos blancos: (1) (2) (3)
PROCESOS MA : Un MA es una combinación de ruidos blancos: (1) (2) (3) Dr. Galindo
73
PROCESOS MA : Dr. Galindo MA(1): (1) Media: (2) Varianza: (3)
Covarianza: (4) Dr. Galindo
74
PROCESOS MA : MA(2) (1) Media: (2) Varianza: (3) Dr. Galindo
75
Substituyendo por el MA(2) (4) (5) (6)
PROCESOS MA : Substituyendo por el MA(2) (4) (5) (6) Dr. Galindo
76
PROCESOS MA : Dr. Galindo La covarianza del MA(2): (7) (8)
Sustituyendo: (9) Multiplicando: (10) (11) Dr. Galindo
77
PROCESOS MA : La covarianza con 2 rezagos es: (12) (13) Sustituyendo:
(14) Entonces: (15) Dr. Galindo
78
PROCESOS MA : La covarianza en el rezago 3: (16) (17) Sustituyendo:
(18) Entonces (19) Dr. Galindo
79
PROCESOS MA : La ACF del MA(2): Para ρ1: (20) Para ρ2: (21) Para ρ3
Dr. Galindo
80
CONDICIÓN DE INVERTIBILIDAD DEL MA:
Un MA se puede transformar en un AR Ejemplo: (1) (2) Rezagando un periodo: (3) Dr. Galindo
81
CONDICIÓN DE INVERTIBILIDAD DEL MA:
Sustituyendo (3) en (1): (4) Despejando: (5) Sustituyendo recursivamente , se genera un AR infinito. El término converge a cero con con MA es invertible. Dr. Galindo
82
CONDICIÓN DE INVERTIBILIDAD DEL MA:
(1) Entonces: El polinomio característico es: Dr. Galindo
83
CONDICIÓN DE INVERTIBILIDAD:
El MA(q) requiere para ser invertible que las raíces de la ecuación característica deben ser mayores que uno en valor absoluto. La condición de invertibilidad es matemáticamente igual que la condición de estacionariedad. Esta condición permite que la serie converja. Dr. Galindo
84
PROPIEDADES DE INVERTIBILIDAD DEL AR(ρ):
Ejemplo: (1) (2) Sustituyendo: (3) Dr. Galindo
85
PROPIEDADES DE INVERTIBILIDAD DEL AR(ρ):
Multiplicando: (4) Substitución infinita: (5) Dr. Galindo
86
Un AR(2): Dr. Galindo (1) Media: (2)
Un AR(2) es estacionario si los parámetros cumplen con: 1. 2. 3. (Mills pp16, financial series) Dr. Galindo
87
Explicación intuitiva: (10.1) Ecuación diferencial homogénea: (10.2)
Un AR(2): Explicación intuitiva: (10.1) Ecuación diferencial homogénea: (10.2) Dr. Galindo
88
La ecuación cuadrática se satisface con las siguientes raíces:
Un AR(2): La solución de (10.2) depende de las raíces de la ecuación característica: (10.3) La ecuación cuadrática se satisface con las siguientes raíces: Dr. Galindo
89
Explicación intuitiva AR: (1) Con: La relación de los parámetros:
Un AR(2): Explicación intuitiva AR: (1) Con: La relación de los parámetros: La ecuación característica es: Dr. Galindo
90
PROCESO ARMA: (1) AR puro: (2) MA para: (3) Dr. Galindo
91
PROCESO ARMA: Las características de un proceso ARMA combinan las características de un AR y un MA. Las principales características de estos procesos son: AR(ρ): Un ACF que se extiende infinitamente pero que derive geométricamente Un PACF que es cero para valores superiores a ρ. MA(q): Un ACF que se corta después del rezago q. Una caída geométrica del PACF que se extiende infinitamente. Dr. Galindo
92
La ACF de un AR tiene la forma del PACF del MA.
PROCESO ARMA: La ACF de un AR tiene la forma del PACF del MA. La ACF del MA tiene la forma del PACF del AR. ARMA: Un ACF que decae geométricamente. Un PACF que decae geométricamente. Dr. Galindo
93
Para valores mayores a q ka ACF se comportará como el AR(ρ)
PROCESO ARMA: Media del ARMA: Para valores mayores a q ka ACF se comportará como el AR(ρ) domina en el largo plazo el AR(ρ). Dr. Galindo
94
PROPIEDADES DE UN ARMA (1,1):
(Griffiths, Hiil y Judge, pp 663) (1) Entonces la varianza es una desviación sobre la media: (2) Dr. Galindo
95
PROPIEDADES DE UN ARMA (1,1):
Como: (3) Entonces con (4) (5) Dr. Galindo
96
PROPIEDADES DE UN ARMA (1,1):
De donde: Entonces la función de autocorrelación es: (6) (7) La función de autocorrelación tiene las características de ambos procesos AR y MA. Dr. Galindo
97
FACTORES COMUNES EN UN MODELO ARMA
(Harre pp29) ARMA (2,1): (1) Factorizando AR: Entonces: (2) AR(1): Dr. Galindo
98
RESUMEN: AR(1) MA(1) Dr. Galindo
99
RESUMEN: MA(2): MA(q): Dr. Galindo
100
PRONOSTICOS CON UN ARMA (Brooks, pp282):
El pronóstico con un ARMA es un ejercicio de estimar la esperanza condicional: (1) Dr. Galindo
101
PRONOSTICOS CON UN ARMA (Brooks, pp282):
Ejemplo de un MA(3): (2) Pronósticos: (3.1) (3.2) (3.3) Dr. Galindo
102
PRONOSTICOS CON UN ARMA (Brooks, pp282):
Se utilizan los valores condicionales no las medias sin condicionar que es cero. En (3.3) se desconoce y en el cuarto momento El Ma(3) tiene memoria para tres periodos y por tanto pronósticos mayores a 4 colapsan al intercepto. Dr. Galindo
103
PRONÓSTICOS DE UN AR(ρ):
Ejemplo AR(2): (1) (1.1) (1.2) (1.3) El pronóstico de un periodo adelante lo da la constante más los coeficientes de los calores rezagados. Dr. Galindo
104
EJEMPLO DE PROÓSTICOS: (Griffiths, Cartei y Hill, pp 675)
(1) (2) (3) (4) Dr. Galindo
105
MODELO DE SERIES DE TIEMPO
LUIS MIGUEL GALINDO HORACIO CATALÁN FACULTAD DE ECONOMÍA
Presentaciones similares
© 2025 SlidePlayer.es Inc.
All rights reserved.