Estadística 2011 Maestría en Finanzas Universidad del CEMA

Slides:



Advertisements
Presentaciones similares
Decisiones de Cartera Villar. Capítulo Nº 12.
Advertisements

CRITERIO OBJETIVO EN LA COMPARACION DE CAPITALES FINANCIEROS
FACTORIZACIÓN LU Bachilleres:
Modelos ARMA.
Capitulo 9: Modelos unívariados de series temporales
EC. DIFERENCIAL Def: Se llama ecuación diferencial a una relación que contiene una o varias derivadas de una función no especificada “y” con respecto.
Valores y Vectores Propios
funciones Por: Carlos Alberto García Acosta
KRIGING CON TENDENCIA.
Pruebas de Estacionariedad
DERIVADA DE UNA FUNCION REAL
Bivariadas y Multivariadas
ANÁLISIS DE ESTABILIDAD
Unidad académica: Ingenierías
KRIGING.
Pruebas de Especificación en el Modelo de Regresión Múltiple
MODELO DE REGRESIÓN MÚLTIPLE
Representación en espacio de estado
Estadística 2011 Clase 8 Maestría en Finanzas Universidad del CEMA
Estadística 2009 Maestría en Finanzas Universidad del CEMA
Ecuaciones diferenciales de 1er orden :
Econometria 2. Modelo de Regresión Lineal Simple
TOPICOS DE ECONOMETRIA APLICADA Series de Tiempo Introducción
Mario Bidegain (FC) – Alvaro Diaz (FI) – Marcelo Barreiro (FC)
INTRODUCCIÓN A LAS SERIES DE TIEMPO
Capitulo 10: La metodología Box-Jenkins
Estadística 2010 Clase 5 Maestría en Finanzas Universidad del CEMA
DERIVADAS PARCIALES Gráficas.
1. FUNCIONES. LÍMITES. Depto. Matemáticas – IES Elaios
Estadística Descriptiva: 4. Correlación y Regresión Lineal
Análisis Estadístico de Datos Climáticos Facultad de Ciencias – Facultad de Ingeniería 2009 M. Barreiro – M. Bidegain – A. Díaz Análisis de correlación.
Estadística Descriptiva: 4. Correlación y Regresión Lineal Ricardo Ñanculef Alegría Universidad Técnica Federico Santa María.
Tema 2: Métodos de ajuste
Estadística 2010 Maestría en Finanzas Universidad del CEMA Profesor: Alberto Landro Asistente: Julián R. Siri.
DISEÑOS DE COMPOSICION CENTRAL
Matemáticas III Tema I FUNCIONES
Cálculo de ceros de funciones de Rn–> Rn :
La Derivada. Ya vimos: los conceptos, métodos ó instrumentos necesarios para establecer el “comportamiento” de una función.  en un entorno de x o [ 
TIPOS DE MODELOS DE REGRESIÓN Y SUPUESTOS PARA EL MODELO A
DINAMICA DE LA OFERTA AGROPECUARIA ARGENTINA: ELASTICIDADES DE LOS PRINCIPALES CULTIVOS PAMPEANOS VICTOR BRESCIA DANIEL LEMA INSTITUTO DE ECONOMIA Y SOCIOLOGIA.
TEMA 4 TRANSFORMADA DE LAPLACE
Representación de Señales y Ruido por medio de Series Ortogonales
SERIES DE TIEMPO INTEGRANTES :.
El Teorema del valor medio
Descomposición Factorial Unidad 5
Introducción a Funciones de una variable
Guías Modulares de Estudio Matemáticas IV – Parte B
Unidad V: Estimación de
ESTIMACION En varios pasajes de este libro hemos planteado la dificultad que se confronta en las investigaciones, de llegar a conclusiones sobre una población.
Universidad Nacional de Colombia Curso Análisis de Datos Cuantitativos.
El tornillo y el producto cruz
Unidad II: Variables Aleatorias Concepto Discreta y Continua Fun. de densidad Fun. de probabilidad F. de distribución Esperanza y Varianza Propiedades.
Unidad V: Estimación de
Índice: Introducción Conceptos básicos Procesos elementales
EC. DIFERENCIAL Presione Enter Ej:1) Hallar la solución de: no tiene solución ya que y=0 es la única solución. 2) Hallar la solución de y’= xy(0) =1 Tiene.
Sabemos reconocerlas, y calcularlas como soluciones de sistemas de ecuaciones, o de desigualdades Buscamos métodos de cálculo generales y eficientes Problemas.
Distribuciones de probabilidad bidimensionales o conjuntas
UCLA – DAC M. Sc. Jorge E. Hernández H.
FACTORIZACION.
2.1 DEFINICIONES CARACTERÍSTICAS Y SUPOSICIONES.
Matemáticas II. Profesor: Ing. Yadhira M. Rangel Carrillo.
MODELOS DE PRONOSTICOS Primer semestre 2010 Modelo de Regresión con dos variables.
6. Sistemas de ecuaciones diferenciales lineales
Clase N°9 Análisis de output en el largo plazo (Parte II) ICS3723 Simulación Profesor Pedro Gazmuri.
INFERENCIA ESTADÍSTICA
Mini-video 2 de 5 Materia: Límites de funciones Continuidad de funciones Prácticas con Introducción a Funciones de una variable.
PROYECTABLE DE SERIES DE TIEMPO
TEMA 3 SUCESIONES Y SERIES.
JOANN GÓMEZ MAX SOLANO RAUL RUSTRIAN ECUACIONES DE SEGUNDO GRADO BUENAS SOMOS JOANN, RAUL Y MAX Y LES PRESENTAMOS EL TEMA ECUACIONES DE SEGUNDO GRADO.
GRÁFICAS Y FUNCIONES MATEMÁTICAS Bernardo Nieto Castellanos.
Transcripción de la presentación:

Estadística 2011 Maestría en Finanzas Universidad del CEMA Profesor: Alberto Landro Asistente: Julián R. Siri

Clase 9 1. Procesos AR(1) 2. Procesos AR(1) no estacionarios 4. Procesos MA(1) 5. Procesos MA(2) 6. Estacionariedad e Invertibilidad 7. Procesos ARMA(p,q)

1. Procesos AR(1) Vamos a analizar los procesos autorregresivos, que son aquellos procesos estocásticos que, en mayor medida, pueden ser explicados por su propia historia. Decíamos que un proceso que “no tiene memoria” es un proceso autorregresivo de orden 0. Teóricamente nuestro ruido blanco será un proceso AR(0), ya que cada observación presente no estará influida por ninguna observación del pasado.

1. Procesos AR(1) Sea un proceso AR(1): Entonces, será condición necesaria y suficiente, para que el proceso estocástico pueda ser considerado estacionario, que sea, en valor absoluto, menor que la unidad.

1. Procesos AR(1) En esta ecuación tenemos dos constantes que es un ruido blanco. Si un modelo AR(1) es estacionario, entonces su esperanza y su varianza son constantes en el tiempo y se tiene que: a) Por lo que b) Ahora si el proceso AR(1) es estacionario, entonces y entonces

1. Procesos AR(1) La función de autocovarianzas asume la forma: Mientras que la FAC satisface la siguiente ecuación en-diferencias: Cuya solución es: La FACP será de la forma:

1. Procesos AR(1) Del sistema de ecuaciones de Yule-Walker obtenemos inmediatamente que: Recurriendo a la fórmula del coeficiente de determinación que se utilizan en los modelos clásicos, se puede escribir:

1. Procesos AR(1) Aunque el interes se centra generalmente en los procesos estocáticos estacionarios, es util analizar algun proceso no estacionario. El Random Walk o Caminata Aleatoria es uno generalmente estudiado. A menudo se modela el precio de las acciones y de tipos de cambio como un random walk. A continuación vamos a distinguir entre dos tipos de caminatas aleatorias: sin variaciones (es decir sin término constante) y con variaciones (con termino constante).

2. Procesos AR(1) no estacionarios Caminata Aleatoria sin Variaciones: Supongamos que εt es una variación “ruido blanco”. Entonces la serie de Yt es de caminata aleatoria si: Los sostenedores del a hipótesis de Mercado de Capitales Eficienes argumentan que el precio de las acciones sigue ese proceso estocástico ya que el cambio en el precio se deriva de nueva información que es por definición impredecible y tiene las propiedades de εt

2. Procesos AR(1) no estacionarios 2. Procesos AR(1) no estacionarios Caminata Aleatoria sin Variaciones: La ecuación anterior se puede escribir de la siguiente forma: O bien, de la siguiente forma:

2. Procesos AR(1) no estacionarios 2. Procesos AR(1) no estacionarios Caminata Aleatoria sin Variaciones: Por lo tanto, se puede demostrar que: Este proceso se dice de “memoria infinita” ya que los shocks aletorios sobreviven infinitos periodos. Es interesante notar que la primer diferencia de este proceso si es estacionaria ya que:

2. Procesos AR(1) no estacionarios 2. Procesos AR(1) no estacionarios Caminata Aleatoria con Variaciones: Supongamos que εt es una variación “ruido blanco”. Entonces la serie de Yt es de caminata aleatoria con variaciones si: Donde ρ es el parámetro de variación. En la formula notamos que ρ determina si Yt varia hacia arriba o abajo dependiendo de si es positivo o negativo.

2. Procesos AR(1) no estacionarios 2. Procesos AR(1) no estacionarios Caminata Aleatoria con Variaciones: Ahora se puede demostrar que: Aca las condiciones de estacionariedad se violan también. Ahora no solo la varianza cambia en el tiempo sino que la media depende del momento t.

2. Procesos AR(1) no estacionarios 2. Procesos AR(1) no estacionarios A continuación vamos a construir dos series Random Walk, una con variaciones y otro sin. Para construir la serie sin variación se utilizó la formula correspondiente, se generaron 200 valores de εt y se supuso un Y inicial igual a 0. Luego, para generar la serie con variación se utilizó la formula correspondiente, se tomaron los mismos 200 valores de εt , se tomo un δ=2 y también se partió de un Y inicial igual a 0.

Caminata Aleatoria sin variaciones 2. Procesos AR(1) no estacionarios 2. Procesos AR(1) no estacionarios Caminata Aleatoria sin variaciones

Caminata Aleatoria con variaciones 2. Procesos AR(1) no estacionarios 2. Procesos AR(1) no estacionarios Caminata Aleatoria con variaciones

3. Procesos AR(2) Pasemos ahora a los procesos autorregresivos de orden 2, que denotamos con AR(2), si responden a la siguiente formulación: En este caso lo que estamos suponiendo es que la influencia que puede tener la historia en el comportamiento del proceso se resume en su rezago de orden 2. La FAC de un AR(2) también converge exponencialmente a 0.

3. Procesos AR(2) Siendo: La representación del proceso estocástico, la condición de estacionariedad se verifica cuando las raíces de su ecuación característica: Son, en módulo, mayores que la unidad. Esta condición implica las siguientes relaciones sobre los coeficientes del proceso:

3. Procesos AR(2) 3. Procesos AR(2) La FAC del AR(2), que satisface la ecuación en-diferencias: Queda determinada por los dos primeros valores de :

3. Procesos AR(2) 3. Procesos AR(2) La varianza, definida por la relación: Se puede descomponer en: Una varianza debida a las innovaciones ; Una varianza debida a las autocorrelaciones de primer orden del proceso, ; Una varianza debida a la autocorrelación parcial de segundo orden del proceso, .

3. Procesos AR(2) 3. Procesos AR(2) En lo que hace a la expresión de las condiciones de estacionariedad en función de los coeficientes de autocorrelación, teniendo en cuenta que: Se obtienen las siguientes desigualdades:

3. Procesos AR(2) 3. Procesos AR(2) Teniendo en cuenta la expresión correspondiente a dada anteriormente, y recurriendo nuevamente al coeficiente de determinación, se puede escribir:

3. Procesos AR(2) 2. Procesos AR(2) Resolviendo el correspondiente sistema de ecuaciones de Yule-Walker: Resultan los estimadores: Y la FACP del proceso AR(2) está definida por las expresiones:

4. Procesos MA(1) Se llama proceso de medias móviles de orden uno (MA(1), por moving average), que se denota como En esta ecuación tenemos dos constantes (θ y δ) y εt, que es un ruido blanco. Como primeras propiedades de este proceso se tiene inmediatamente que Eyt= δ y también que Var yt= (1+θ2).σ2ε

4. Procesos MA(1) 3. Procesos MA(1) Representación MA(1) de la forma: (donde: i) yt denota una variable centrada y ii) : WN-débil), se verifica que:

4. Procesos MA(1) 3. Procesos MA(1) Su función de autocorrelaciones será de la forma: Así podemos obtener fácilmente que la autocorrelación de primer orden obedece a una ecuación de segundo grado de la forma: Y como: Sólo puede asumir valores reales, para que el proceso sea invertible necesariamente se tiene que verificar que…

4. Procesos MA(1) 3. Procesos MA(1) La condición de invertibilidad exige que y, por lo tanto, hay una única representación MA(1) invertible para cada función de autocorrelaciones. Los coeficientes de autocorrelación parcial quedan definidos, en forma general por: De esta expresión se concluye que y, por lo tanto, que la función de autocorrelaciones parciales está dominada por una función exponencialmente decreciente.

4. Procesos MA(1) 3. Procesos MA(1) Si el parámetro θ es negativo, entonces la FACP converge a cero exponencialmente alternando en signo y empezando por un valor positivo. Si en cambio el parámetro θ tiene signo positivo, entonces la convergencia va a ser con todos los valores de la FACP tomando signo negativo. Nótese entonces que un proceso MA(1) no puede generar nunca una FACP que sea siempre positiva.

Veamos el correlograma de una serie generada para ser un MA(1) 4. Procesos MA(1) 3. Procesos MA(1) Veamos el correlograma de una serie generada para ser un MA(1)

5. Procesos MA(2) 4. Procesos MA(2) Un proceso de medias móviles de orden 2 (MA(2)) es un proceso estocástico que sigue la ley: Siguiendo un proceso de inversión similar al que hicimos con el proceso MA(1), se puede probar fácilmente que la FACP de este proceso puede tener diversas formas, dependiendo de los signos y los valores relativos de θ1 y θ2. En cambio, la función de autocovarianza cumple:

5. Procesos MA(2) 4. Procesos MA(2) Representación MA(2) de la forma: Condición de invertibilidad: que las raíces de Sean, en módulo, mayores que la unidad. Es decir, que los coeficientes sean tales que:

5. Procesos MA(2) 4. Procesos MA(2) De lo anterior se desprende que: Y los valores iniciales de los coeficientes pueden ser expresados como:

Veamos el correlograma de una serie generada para ser un MA(2). 5. Procesos MA(2) 4. Procesos MA(2) Veamos el correlograma de una serie generada para ser un MA(2).

6. Estacionariedad e Invertibilidad Las condiciones de estacionariedad e invertibilidad son impuestas respectivamente a los procesos AR(p) y MA(q). Decíamos que es deseable que un proceso AR(p) sea estacionario de modo que se pueda estimar uno y sólo un modelo y no uno que contenga infinitos parámetros, por ejemplo, por el cambio a cada momento del tiempo, de la esperanza del proceso. Las condiciones que se imponen a los AR buscan evitar que las sumatorias que se desarrollan se vuelvan infinitas y no converjan a 0. Los procesos AR(p) siempre son invertibles.

6. Estacionariedad e Invertibilidad En el caso de procesos de medias móviles, las condiciones similares a las de estacionariedad son las de invertibilidad. Cuando un proceso MA es invertible, entonces dicho proceso admite una representación autorregresiva, donde los valores pasados de la variable yt reciben una ponderación cada vez menor. Cuando presentamos los modelos autorregresivos supusimos que los procesos bajo estudio eran estacionarios. Sin embargo, las series de datos económicos que usualmente se analizan se caracterizan por ser claramente no estacionarias, como ya vimos la clase pasada. Cuando esto ocurre, lo usual es que las primeras o segundas diferencias de la variable original sí sean estacionarias.

Recordamos el caso del precio de una acción: 6. Estacionariedad e Invertibilidad Recordamos el caso del precio de una acción:

Pero la primer diferencia arroja el siguiente correlograma: 6. Estacionariedad e Invertibilidad 6. Estacionariedad e Invertibilidad Pero la primer diferencia arroja el siguiente correlograma:

6. Estacionariedad e Invertibilidad Por lo tanto, los procesos que pueden trasformarse en estacionarios mediante sus diferencias de orden d, se conocen como procesos integrados de orden d. Un proceso integrado de orden 1 es el proceso de random walk visto anteriormente, cuya varianza era creciente con el tiempo. Sin embargo, su primer diferencia correspondía al término εt , el que si es estacionario o integrado de orden 0.

7. Procesos ARMA(p,q) Las representaciones de procesos estocásticas vistas hasta aquí pueden ser llamadas formas “puras”. Sin embargo, en el análisis empírico de series económicas es muy frecuente encontrar representaciones que tienen una componente autorregresiva así como una componente de medias móviles. Estos modelos se denotan como modelos ARMA(p,q) donde p y q denotan las órdenes de los componentes autorregresivo y de medias móviles. La estructura de un ARMA(p,q) es:

7. Procesos ARMA(p,q) 6. Procesos ARMA La FAC de un proceso ARMA(1,1) comienza del valor ρ1 que acabamos de mostrar y a partir de él, decrece a una tasa Φ. Es decir, que la FAC se comporta a partir de k=1 como la FAC de un proceso AR(1). Generalizando: la FAC de un proceso ARMA(p,q) se comporta como la FAC de un AR(p) para todo k>q. Esto hace que la identificación no sea tan sencilla, ya que la FAC y la FACP de un ARMA(p,q) heredan características de sus dos componentes.

7. Procesos ARMA(p,q) 6. Procesos ARMA Dado que no hay reglas claras como para la identificación de los procesos por separado, lo más común es una “iteración” hasta que se decide qué modelo es el que mejor ajusta. Por ejemplo, a la hora de definir un proceso ARMA(2,1) se comenzará por especificar un AR(2) y luego, al comprobar que los residuos siguen una forma MA(1) se especificará un ARMA(2,1).

7. Procesos ARMA(p,q) Coeficiente de determinación y estimación de los órdenes p y q Se seleccionará como modelo más adecuado aquél para el cual se verifique que:

FIN Me pueden escribir a: jrs06@cema.edu.ar Las presentaciones estarán colgadas en: www.cema.edu.ar/u/jrs06