La descarga está en progreso. Por favor, espere

La descarga está en progreso. Por favor, espere

Pronósticos, Series de Tiempo y Regresión

Presentaciones similares


Presentación del tema: "Pronósticos, Series de Tiempo y Regresión"— Transcripción de la presentación:

1 Pronósticos, Series de Tiempo y Regresión
Capítulo 5: Construcción de Modelos y Análisis Residual

2 Temas Construcción de modelos y los efectos de la multicolinealidad
Análisis residual en la regresión simple Análisis residual en la regresión múltiple Diagnóstico para detectar observaciones atípicas e influyentes

3 Construcción de modelos y los efectos de la multicolinealidad
Sub-temas multicolinealidad comparación de los modelos de regresión con base en R2, s, R2 ajustada, longitud del intervalo de predicción y estadística C regresión por pasos y eliminación hacia atrás

4 Multicolinealidad las variables independientes están relacionadas entre sí o dependen una de otra Cuando existe la multicolinealidad entre dos o más variables independientes, la importancia de éstas parecerá ser menor. Se utiliza una matriz de correlación La multicolinealidad es grave si por lo menos uno de los coeficientes de correlación simple entre las variables independientes es al menos de 0.9.

5 Multicolinealidad factores de inflación de la varianza (variance inflation factor) Rj2 es el coeficiente de determinación múltiple para el modelo que relaciona xj con las otras variables independientes. VIFj > 1

6 Multicolinealidad La multicolinealidad es grave si:
el VIF más grande > 10 el VIF medio es sustancialmente > 1

7 Construcción de modelos y los efectos de la multicolinealidad
comparación de los modelos de regresión con base en R2, s, R2 ajustada, longitud del intervalo de predicción y estadística C R2 = (variación explicada)/(variación total) el R2  al  el número de variables

8 Construcción de modelos y los efectos de la multicolinealidad
comparación de los modelos de regresión con base en R2, s, R2 ajustada, longitud del intervalo de predicción y estadística C al  el número de variables, se pierden grados de libertad si al introducir otra variable independiente al modelo, el s , no debemos sumar la variable independiente al modelo.

9 Construcción de modelos y los efectos de la multicolinealidad
comparación de los modelos de regresión con base en R2, s, R2 ajustada, longitud del intervalo de predicción y estadística C al  el número de variables, se pierden grados de libertad si al introducir otra variable independiente al modelo, el R2 ajustada ↓, no debemos sumar la variable independiente al modelo.

10 Construcción de modelos y los efectos de la multicolinealidad
comparación de los modelos de regresión con base en R2, s, R2 ajustada, longitud del intervalo de predicción y estadística C Queremos que C sea pequeña. Queremos que C sea casi igual a k + 1. Si C >> k + 1, el modelo tiene un sesgo notable. Si C < k + 1, el modelo no tiene sesgo y es deseable.

11 Construcción de modelos y los efectos de la multicolinealidad
Regresión por pasos Se especifican αentry y αstay Paso 1: se corre una regresión para cada variable independiente. Se denomina a la variable con el mayor valor de la estadística t, x[1] Si la estadística t no indica que x[1] sea significante en el nivel αentry , el procedimiento termina. Si es significante, se conserva para usarla en el paso 2.

12 Construcción de modelos y los efectos de la multicolinealidad
Regresión por pasos Paso 2: se corre una regresión agregando cada variable independiente al modelo y = β0 + β1x[1] + β2xj +  Se denomina a la variable (nueva) con el mayor valor de la estadística t, x[2] Si la estadística t no indica que x[2] sea significante en el nivel αentry , el procedimiento termina. Si es significante, se comprueba que la estadística t >αstay para x[1].

13 Construcción de modelos y los efectos de la multicolinealidad
Regresión por pasos Pasos posteriores: se continúan agregando variables independientes, una por una, al modelo. En cada paso se suma una variable independiente al modelo si teine la estadística t más grande de las variables independientes que no están en el modelo y si su estadística t indica que es significante en el nivel Después de añadir una variable independiente, el procedimiento comprueba que todas las variables independientes ya incluidas tienen t significante en el nivel αstay

14 Construcción de modelos y los efectos de la multicolinealidad
eliminación hacia atrás Se corre una regresión con todas las p variables independientes. Si la estadística t más pequeña es significante en el nivel αstay , se conserva el modelo con todas las variables. Si la estadística t más pequeña no es significante en el nivel αstay , se elimina esa variable del modelo y se corre la regresión de nuevo. Se repite estos pasos hasta conseguir que la estadística t más pequeña sea significante en el nivel αstay .

15 Análisis residual en la regresión simple
Sub-temas gráficas de residuos suposición de varianza constante suposición de la forma funcional correcta suposición de la normalidad suposición de independencia transformación de la variable dependiente

16 Análisis residual en la regresión simple
recuerda que Si las suposiciones de la regresión se mantienen, los residuos deben parecer que han sido seleccionados en forma aleatoria e independiente de poblaciones distribuidas normalmente cuya media es 0 y su varianza es σ2

17 Análisis residual en la regresión simple
gráficas de residuos Se elaboran gráficas de residuos contra valores de x valores de y el orden en el tiempo en el cual los datos han sido observados (para series de tiempo)

18 Análisis residual en la regresión simple
suposición de varianza constante se examinan las gráficas de los residuos varianza de error creciente varianza de error decreciente

19 Análisis residual en la regresión simple
suposición de la forma funcional correcta Si usamos un modelo de regresión lineal simple cuando la relación verdadera es curva, la gráfica de residuos tendrá una apariencia curva.

20 Análisis residual en la regresión simple
suposición de la normalidad Se acomodan los errores en orden ascendente Se grafican contra el valor z correspondiente. z = punto en el eje horizontal bajo la curva normal estándar de modo que el área bajo la curva a la izquierda de z(i) es (3i-1)/(3n+1) Esta gráfica debe asemejarse a una recta.

21 Análisis residual en la regresión simple
suposición de independencia más probable violar esta suposición en series de tiempo: autocorrelación positiva patrón cíclico en los errores autocorrelación negativa Los términos de error deben ocurrir en un patrón aleatorio en el tiempo.

22 Análisis residual en la regresión simple
transformación de la variable dependiente posible remedio en casos de transgresión de las suposiciones de varianza constante forma funcional correcta normalidad

23 Análisis residual en la regresión simple
transformación de la variable dependiente transformación de la raíz cuadrada transformación de la raíz cuárta transformación logarítmica

24 Análisis residual en la regresión múltiple
Se grafican los residuos contra valores de cada variable independiente valores del valor predicho de la variable dependiente orden en el tiempo en el cual se observaron los datos

25 Diagnóstico para detectar observaciones atípicas e influyentes
Sub-temas valor de la ventaja residuos y residuos estudentizados residuos eliminados y residuos eliminados estudentizados medida de la distancia de Cook Qué hacer con respecto a las observaciones atípicas y las influyentes

26 Diagnóstico para detectar observaciones atípicas e influyentes
atípica: una observación muy separada del resto de los datos influyente: cambia de forma significativa algún aspecto importante (b o s) del análisis de regresión si se elimina la observación

27 Diagnóstico para detectar observaciones atípicas e influyentes
valor de la ventaja mide la distancia entre los valores x de la observación y el centro de la región experimental Si el valor de la ventaja es grande, la observación es atípica con respecto a sus valores x. Se considera grande si es mayor que lo doble del promedio de todos los valores de la ventaja. (2(k+1)/n)

28 Diagnóstico para detectar observaciones atípicas e influyentes
residuos y residuos estudentizados Cualquier residuo notablemente diferente de los otros es sospechoso. residuo estudentizado: e/s Si el resiguo estudentizado es mayor que 2, hay alguna evidencia de que la observación es atípica.

29 Diagnóstico para detectar observaciones atípicas e influyentes
residuos eliminados y residuos eliminados estudentizados se calcula la distancia entre yi y y(i) residuo eliminado estudentizado = (residuo eliminado) / s Hay fuerte evidencia de que la observación es atípica con respecto a su valor y si el residuo eliminado estudentizado es mayor que

30 Medida de la Distancia de Cook
D de Cook Si la D de Cook de la observación i es grande, entonces las estimaciones puntuales de mínimos cuadrados cambian mucho con la inclusión de i Si D < F[.80], i no es influyente Si D > F[.50], i sí es influyente

31 Qué hacer con respecto a las observaciones atípicas y las influyentes
Comenzar con las observaciones atípicas en la variable y Comprobar que el valor esté capturado correctamente; corregirlo si es necesario. Si no se puede corregir o si es correcto, desechar la observación y correr la regresión de nuevo. Luego ver los valores x Tratar de detectar razones (causas) para el valor y atípico (ver si algún valor x también es atípico). Considerar otras variables independientes no incluidas en el modelo.


Descargar ppt "Pronósticos, Series de Tiempo y Regresión"

Presentaciones similares


Anuncios Google