Pronósticos, Series de Tiempo y Regresión

Slides:



Advertisements
Presentaciones similares
ANOVA DE UN FACTOR.
Advertisements

Regresión Lineal Verificación de Supuestos
Tema 6: Regresión lineal.
Tema.9.Predicción y estimación. Concepto. Cálculo de la ecuación de regresión lineal. Modelo general lineal. Evaluación del modelo. Diagnóstico del modelo.
Regresión lineal simple
Regresión mínimo cuadrada (I)
REGRESION LINEAL SIMPLE
ESTADISTICA INFERENCIAL
ESTRATEGIAS Y DISEÑOS AVANZADOS DE INVESTIGACIÓN SOCIAL
MÉTODOS DE MEDICIÓN DE COSTOS.
ANÁLISIS EXPLORATORIO DE DATOS
Bivariadas y Multivariadas
Estadística: -Correlación y regresión
REGRESION Y CORRELACION LINEALES. REGRESION LINEAL SIMPLE Finalidad Estimar los valores de y (variable dependiente) a partir de los valores de x (variable.
Modelado y simulación en Ingeniería Química. Manuel Rodríguez
MANUAL DE LABORATORIO DE CÓMPUTO ECONOMETRÍA I MULTICOLINEALIDAD
ESTRATEGIAS Y DISEÑOS AVANZADOS DE INVESTIGACIÓN SOCIAL
Econometria 2. Modelo de Regresión Lineal Simple
Capitulo 10: La metodología Box-Jenkins
Estadística 2010 Clase 5 Maestría en Finanzas Universidad del CEMA
Regresión y correlación
CONTRASTE Y VALIDACIÓN DE UN MODELO
Estadística Descriptiva: 4. Correlación y Regresión Lineal
Regresión lineal Es un modelo matemático para predecir el efecto de una variable sobre otra, ambas cuantitativas. Una variable es la dependiente y otra.
Regresión Lineal Simple
División de Estudios Políticos, CIDE
MEDIDAS DE DISPERSIÓN:
COMPORTAMIENTO DE LAS DISTRIBUCIONES DE
Análisis de Correlación y de Regresión lineal simple
Laura López, Marta de Juan, Laura Mallo. Grupo 72. LADE.
PROBLEMAS ECONOMETRICOS
CONTRASTE Y VALIDACIÓN DE UN MODELO
15 Análisis de Regresión Múltiple
Pronósticos, Series de Tiempo y Regresión
Pronósticos, Series de Tiempo y Regresión
ESTADÍSTICA BÁSICA EN ECOLOGÍA EVOLUTIVA Juan J. Soler Cruz Estación Experimental de Zonas Áridas Almería.
Pronósticos, Series de Tiempo y Regresión
Valor que toma la variable aleatoria
Métodos de calibración: regresión y correlación
Titular: Agustín Salvia
Normalidad, Variabilidad y estimación del Modelo de Regresión
Introducción a la Inferencia Estadística
Análisis de regresión MCO MELI.
Herramientas básicas.
Estimador de Efectos Fijos
Regresión lineal simple
Regresión lineal múltiple
Estadística Aplicada a las Ciencias Políticas
Modelos secundarios Tanto los parámetros que definen las curvas de Inactivación D ó z, como los que definen las curvas De crecimiento , se ven afectados.
SEMINARIO DE INVESTIGACION Titular: Agustín Salvia
Estadística II Regresión Lineal.
Análisis de los Datos Cuantitativos
Titular: Agustín Salvia
Regresión Lineal Simple
Construcción de modelos con regresión y correlación
Ejercicios Dado un conjunto de datos, aplicar el Criterio de Fourier para desechar los posibles valores atípicos.
Regresión lineal simple Nazira Calleja
Unidad 4 Análisis de los Datos.
REGRESIÓN LINEAL MÚLTIPLE.
TEMA : ANALISIS DE REGRESION
Germán Fromm R. 1. Objetivo Entender los diseños metodológicos predictivos 2.
DISEÑOS POR BLOQUES ALEATORIZADOS
Departamento de Informática Universidad Técnica Federico Santa María EconometríaEconometría Capitulo II.
REGRESIÓN LINEAL SIMPLE
REGRESIÓN LINEAL SIMPLE. Temas Introducción Análisis de regresión (Ejemplo aplicado) La ecuación de una recta Modelo estadístico y suposiciones Estimación.
ESTADISTICA DESCRIPTIVA BIVARIADA MEDIDAS DE RELACIÓN ENTRE VARIABLES CUANTITATIVAS.
REGRESIÓN LINEAL SIMPLE TEMA INTRODUCCIÓN Determinar la ecuación de regresión sirve para: – Describir de manera concisa la relación entre variables.
Estimación estadística
M.E. ADA PAULINA MORA GONZALEZ. Esta parte describe las técnicas para ajustar curvas en base a datos para estimaciones intermedias. Una manera de hacerlo.
ANALISIS DE VARIANZA.
Transcripción de la presentación:

Pronósticos, Series de Tiempo y Regresión Capítulo 5: Construcción de Modelos y Análisis Residual

Temas Construcción de modelos y los efectos de la multicolinealidad Análisis residual en la regresión simple Análisis residual en la regresión múltiple Diagnóstico para detectar observaciones atípicas e influyentes

Construcción de modelos y los efectos de la multicolinealidad Sub-temas multicolinealidad comparación de los modelos de regresión con base en R2, s, R2 ajustada, longitud del intervalo de predicción y estadística C regresión por pasos y eliminación hacia atrás

Multicolinealidad las variables independientes están relacionadas entre sí o dependen una de otra Cuando existe la multicolinealidad entre dos o más variables independientes, la importancia de éstas parecerá ser menor. Se utiliza una matriz de correlación La multicolinealidad es grave si por lo menos uno de los coeficientes de correlación simple entre las variables independientes es al menos de 0.9.

Multicolinealidad factores de inflación de la varianza (variance inflation factor) Rj2 es el coeficiente de determinación múltiple para el modelo que relaciona xj con las otras variables independientes. VIFj > 1

Multicolinealidad La multicolinealidad es grave si: el VIF más grande > 10 el VIF medio es sustancialmente > 1

Construcción de modelos y los efectos de la multicolinealidad comparación de los modelos de regresión con base en R2, s, R2 ajustada, longitud del intervalo de predicción y estadística C R2 = (variación explicada)/(variación total) el R2  al  el número de variables

Construcción de modelos y los efectos de la multicolinealidad comparación de los modelos de regresión con base en R2, s, R2 ajustada, longitud del intervalo de predicción y estadística C al  el número de variables, se pierden grados de libertad si al introducir otra variable independiente al modelo, el s , no debemos sumar la variable independiente al modelo.

Construcción de modelos y los efectos de la multicolinealidad comparación de los modelos de regresión con base en R2, s, R2 ajustada, longitud del intervalo de predicción y estadística C al  el número de variables, se pierden grados de libertad si al introducir otra variable independiente al modelo, el R2 ajustada ↓, no debemos sumar la variable independiente al modelo.

Construcción de modelos y los efectos de la multicolinealidad comparación de los modelos de regresión con base en R2, s, R2 ajustada, longitud del intervalo de predicción y estadística C Queremos que C sea pequeña. Queremos que C sea casi igual a k + 1. Si C >> k + 1, el modelo tiene un sesgo notable. Si C < k + 1, el modelo no tiene sesgo y es deseable.

Construcción de modelos y los efectos de la multicolinealidad Regresión por pasos Se especifican αentry y αstay Paso 1: se corre una regresión para cada variable independiente. Se denomina a la variable con el mayor valor de la estadística t, x[1] Si la estadística t no indica que x[1] sea significante en el nivel αentry , el procedimiento termina. Si es significante, se conserva para usarla en el paso 2.

Construcción de modelos y los efectos de la multicolinealidad Regresión por pasos Paso 2: se corre una regresión agregando cada variable independiente al modelo y = β0 + β1x[1] + β2xj +  Se denomina a la variable (nueva) con el mayor valor de la estadística t, x[2] Si la estadística t no indica que x[2] sea significante en el nivel αentry , el procedimiento termina. Si es significante, se comprueba que la estadística t >αstay para x[1].

Construcción de modelos y los efectos de la multicolinealidad Regresión por pasos Pasos posteriores: se continúan agregando variables independientes, una por una, al modelo. En cada paso se suma una variable independiente al modelo si teine la estadística t más grande de las variables independientes que no están en el modelo y si su estadística t indica que es significante en el nivel Después de añadir una variable independiente, el procedimiento comprueba que todas las variables independientes ya incluidas tienen t significante en el nivel αstay

Construcción de modelos y los efectos de la multicolinealidad eliminación hacia atrás Se corre una regresión con todas las p variables independientes. Si la estadística t más pequeña es significante en el nivel αstay , se conserva el modelo con todas las variables. Si la estadística t más pequeña no es significante en el nivel αstay , se elimina esa variable del modelo y se corre la regresión de nuevo. Se repite estos pasos hasta conseguir que la estadística t más pequeña sea significante en el nivel αstay .

Análisis residual en la regresión simple Sub-temas gráficas de residuos suposición de varianza constante suposición de la forma funcional correcta suposición de la normalidad suposición de independencia transformación de la variable dependiente

Análisis residual en la regresión simple recuerda que Si las suposiciones de la regresión se mantienen, los residuos deben parecer que han sido seleccionados en forma aleatoria e independiente de poblaciones distribuidas normalmente cuya media es 0 y su varianza es σ2

Análisis residual en la regresión simple gráficas de residuos Se elaboran gráficas de residuos contra valores de x valores de y el orden en el tiempo en el cual los datos han sido observados (para series de tiempo)

Análisis residual en la regresión simple suposición de varianza constante se examinan las gráficas de los residuos varianza de error creciente varianza de error decreciente

Análisis residual en la regresión simple suposición de la forma funcional correcta Si usamos un modelo de regresión lineal simple cuando la relación verdadera es curva, la gráfica de residuos tendrá una apariencia curva.

Análisis residual en la regresión simple suposición de la normalidad Se acomodan los errores en orden ascendente Se grafican contra el valor z correspondiente. z = punto en el eje horizontal bajo la curva normal estándar de modo que el área bajo la curva a la izquierda de z(i) es (3i-1)/(3n+1) Esta gráfica debe asemejarse a una recta.

Análisis residual en la regresión simple suposición de independencia más probable violar esta suposición en series de tiempo: autocorrelación positiva patrón cíclico en los errores autocorrelación negativa Los términos de error deben ocurrir en un patrón aleatorio en el tiempo.

Análisis residual en la regresión simple transformación de la variable dependiente posible remedio en casos de transgresión de las suposiciones de varianza constante forma funcional correcta normalidad

Análisis residual en la regresión simple transformación de la variable dependiente transformación de la raíz cuadrada transformación de la raíz cuárta transformación logarítmica

Análisis residual en la regresión múltiple Se grafican los residuos contra valores de cada variable independiente valores del valor predicho de la variable dependiente orden en el tiempo en el cual se observaron los datos

Diagnóstico para detectar observaciones atípicas e influyentes Sub-temas valor de la ventaja residuos y residuos estudentizados residuos eliminados y residuos eliminados estudentizados medida de la distancia de Cook Qué hacer con respecto a las observaciones atípicas y las influyentes

Diagnóstico para detectar observaciones atípicas e influyentes atípica: una observación muy separada del resto de los datos influyente: cambia de forma significativa algún aspecto importante (b o s) del análisis de regresión si se elimina la observación

Diagnóstico para detectar observaciones atípicas e influyentes valor de la ventaja mide la distancia entre los valores x de la observación y el centro de la región experimental Si el valor de la ventaja es grande, la observación es atípica con respecto a sus valores x. Se considera grande si es mayor que lo doble del promedio de todos los valores de la ventaja. (2(k+1)/n)

Diagnóstico para detectar observaciones atípicas e influyentes residuos y residuos estudentizados Cualquier residuo notablemente diferente de los otros es sospechoso. residuo estudentizado: e/s Si el resiguo estudentizado es mayor que 2, hay alguna evidencia de que la observación es atípica.

Diagnóstico para detectar observaciones atípicas e influyentes residuos eliminados y residuos eliminados estudentizados se calcula la distancia entre yi y y(i) residuo eliminado estudentizado = (residuo eliminado) / s Hay fuerte evidencia de que la observación es atípica con respecto a su valor y si el residuo eliminado estudentizado es mayor que

Medida de la Distancia de Cook D de Cook Si la D de Cook de la observación i es grande, entonces las estimaciones puntuales de mínimos cuadrados cambian mucho con la inclusión de i Si D < F[.80], i no es influyente Si D > F[.50], i sí es influyente

Qué hacer con respecto a las observaciones atípicas y las influyentes Comenzar con las observaciones atípicas en la variable y Comprobar que el valor esté capturado correctamente; corregirlo si es necesario. Si no se puede corregir o si es correcto, desechar la observación y correr la regresión de nuevo. Luego ver los valores x Tratar de detectar razones (causas) para el valor y atípico (ver si algún valor x también es atípico). Considerar otras variables independientes no incluidas en el modelo.