La descarga está en progreso. Por favor, espere

La descarga está en progreso. Por favor, espere

Modelo de regresión simple: Y =  1 +  2 X + u 1 Hemos visto que los coeficientes de regresión b 1 y b 2 son variables aleatorias. Estos, respectivamente,

Presentaciones similares


Presentación del tema: "Modelo de regresión simple: Y =  1 +  2 X + u 1 Hemos visto que los coeficientes de regresión b 1 y b 2 son variables aleatorias. Estos, respectivamente,"— Transcripción de la presentación:

1 Modelo de regresión simple: Y =  1 +  2 X + u 1 Hemos visto que los coeficientes de regresión b 1 y b 2 son variables aleatorias. Estos, respectivamente, proveen estimados de  1 y  2. En la última presentación demostramos que estos estimadores son insesgados. PRECISIÓN DE LOS COEFICIENTES DE REGRESIÓN probability density function of b 2 22 b2b2

2 Modelo de regresión simple: Y =  1 +  2 X + u En esta secuencia veremos que también podemos obtener estimaciones de las desviaciones estándar de las distribuciones. Lo que nos dará una cierta idea de su probable confiabilidad y proporcionará una base para las pruebas de hipótesis. 2 probability density function of b 2 22 standard deviation of density function of b 2 b2b2 PRECISIÓN DE LOS COEFICIENTES DE REGRESIÓN

3 Modelo de regresión simple: Y =  1 +  2 X + u Las expresiones (que no serán derivadas) de la varianza de sus distribuciones se muestran arriba. Vea el Diagrama 2.3 en el texto para una prueba de la expresión de la varianza de b 2. 3 PRECISIÓN DE LOS COEFICIENTES DE REGRESIÓN

4 Modelo de regresión simple: Y =  1 +  2 X + u Nos centraremos en las implicaciones de la expresión de la varianza de b 2. Viendo el numerador, vemos que la varianza de b 2 es proporcional a  u 2, como era de esperarse: cuanto más “ruido” hay en el modelo, menos precisión tendrán nuestras estimaciones. 4 PRECISIÓN DE LOS COEFICIENTES DE REGRESIÓN

5 Modelo de regresión simple: Y =  1 +  2 X + u Esto es ilustrado por el diagrama de arriba. El componente no-estocástico de la relación,Y = 3.0 + 0.8X, representado con una línea punteada, es el mismo en ambos diagramas. 5 YY X X Y = 3.0 + 0.8X PRECISIÓN DE LOS COEFICIENTES DE REGRESIÓN

6 Modelo de regresión simple: Y =  1 +  2 X + u Los valores de X son los mismos y se han utilizado los mismos números aleatorios para generar los valores del término de error en las 20 observaciones. 6 YY X X Y = 3.0 + 0.8X PRECISIÓN DE LOS COEFICIENTES DE REGRESIÓN

7 Modelo de regresión simple: Y =  1 +  2 X + u Sin embargo, en el diagrama de la derecha los números aleatorios fueron multiplicados por un factor de 5. Como resultado, la línea de regresión (la línea negra) es una aproximación menos exacta a la relación no-estocástica. 7 YY X X Y = 3.0 + 0.8X PRECISIÓN DE LOS COEFICIENTES DE REGRESIÓN

8 Modelo de regresión simple: Y =  1 +  2 X + u Analizando el denominador de la expresión, mientras más grande sea la suma del cuadrado de las desviaciones de X, menor será la variación de b 2. 8 PRECISIÓN DE LOS COEFICIENTES DE REGRESIÓN

9 Modelo de regresión simple: Y =  1 +  2 X + u Sin embargo, la magnitud de esta sumatoria de las desviaciones al cuadrado depende de dos factores: el número de observaciones, por un lado, y del tamaño de las desviaciones de X respecto a su media muestral, por otro. Para diferenciar estos dos efectos es importante definir la media del cuadro de las desviaciones, MSD(X). 9 PRECISIÓN DE LOS COEFICIENTES DE REGRESIÓN

10 Modelo de regresión simple: Y =  1 +  2 X + u Como puede observarse, la varianza de b 2 es inversamente proporcional a n (el número de observaciones), manteniendo MSD(X) constante: entre más información haya en la muestra, mayor precisión tendrán los estimadores. 10 PRECISIÓN DE LOS COEFICIENTES DE REGRESIÓN

11 Modelo de regresión simple: Y =  1 +  2 X + u 11 Una tercera implicación de esta expresión es que la varianza es inversamente proporcional a la media del cuadrado de las desviaciones de X. ¿Cuál es la razón de esto? PRECISIÓN DE LOS COEFICIENTES DE REGRESIÓN

12 Modelo de regresión simple: Y =  1 +  2 X + u En el diagrama de arriba, el componente no-estocástico de la relación es el mismo y los mismos números aleatorios fueron utilizados para los 20 valores del término de error. 12 YY XX Y = 3.0 + 0.8X PRECISIÓN DE LOS COEFICIENTES DE REGRESIÓN

13 Modelo de regresión simple: Y =  1 +  2 X + u No obstante, la MSD(X) es mucho menor en el digrama de la derecha porque los valores de X están más concentrados entre sí. 13 YY XX Y = 3.0 + 0.8X PRECISIÓN DE LOS COEFICIENTES DE REGRESIÓN

14 Modelo de regresión simple: Y =  1 +  2 X + u Por lo que en el diagrama, la posición de la línea de regresión es más sensible a lo valores del término de error y, como consecuencia, la línea de regresión será relativamente inexacta. 14 YY XX Y = 3.0 + 0.8X PRECISIÓN DE LOS COEFICIENTES DE REGRESIÓN

15 Modelo de regresión simple : Y =  1 +  2 X + u Por supuesto, como puede verse en las expresiones de la varianza de los coeficientes b, la razón del MSD(X) con respecto a la varianza de u es más importante que el valor absoluto de cualquiera de las dos. 15 PRECISIÓN DE LOS COEFICIENTES DE REGRESIÓN

16 Modelo de regresión simple : Y =  1 +  2 X + u 16 La varianza no puede ser calculada exactamente dado que no conocemos la varianza del término de error. Sin embargo, podemos derivar un estimador de  u 2 de los residuales.

17 Modelo de regresión simple: Y =  1 +  2 X + u 17 La dispersión de los residuales alrededor de la línea de regresión reflejará claramente la dispersión no vista de u sobre la línea Y i =  1 + b 2 X i, aunque en general el residual y el valor del término de error no son iguales uno a otro en ninguna observación.

18 Modelo de regresión simple: Y =  1 +  2 X + u 18 Una medida de la dispersión de los residuales es el “error cuadrado medio”, MSD(e), descrito arriba (recuerde que la media de los residuales de OLS es igual a cero). Intuitivamente, el MSD nos da una idea de la varianza de u.

19 Modelo de regresión simple: Y =  1 +  2 X + u 19 Antes de ir más lejos, debemos preguntarnos: ¿Qué línea es más propable que este cerca de los puntos que representan las observacioens muestrales de X y Y, la línea real Y =  1 +  2 X o la línea de regresión estimada Y = b 1 + b 2 X ? ^

20 Modelo de regresión simple : Y =  1 +  2 X + u 20 La respuesta es la línea de regresión, que por definición se traza para minimizar la suma del cuadrado de las distancias entre ella y las observaciones.

21 Modelo de regresión simple: Y =  1 +  2 X + u 21 Por lo tanto, la dispersión de los residuales tenderá a ser más pequeña que la dispersión de los valores de u, y el MSD(e) tenderá a subestimar  u 2.

22 Modelo de regresión simple: Y =  1 +  2 X + u 22 De hecho, puede mostrarse que el valor esperado de MSD(e), cuando sólo hay una variable explicativa, está determinada por la expresión de arriba.

23 Modelo de regresión simple: Y =  1 +  2 X + u 23 Sin embargo, se sigue que podemos obtener un estimador no sesgado de  u 2 al multiplicar MSD(e) por n / (n – 2). Lo que denominaremos s u 2.

24 Modelo de regresión simple: Y =  1 +  2 X + u 24 Podemos entonces obtener una estimación de la desviación estándar de la distribución de b 1 y b 2 al sustituir s u 2 por  u 2 en las expresiones de las varianzas y sacarles raíz cuadrada.

25 Modelo de regresión simple: Y =  1 +  2 X + u 25 A estos estimadores se les conoce comúnmente como los “errores estándar” de b 1 y b 2, pues llamarlos ‘estimadores muestrales de la desviación estándar’ suena algo enredoso.

26 26 Los errores estándar de los coeficientes aparecen siempre con los resultados de una regresión. Aquí está la regresión de ganancias por hora explicada por años de educación vista previamente. Los errores estándar aparecen a la derecha de los coeficientes b.. reg EARNINGS S Source | SS df MS Number of obs = 540 -------------+------------------------------ F( 1, 538) = 112.15 Model | 19321.5589 1 19321.5589 Prob > F = 0.0000 Residual | 92688.6722 538 172.283777 R-squared = 0.1725 -------------+------------------------------ Adj R-squared = 0.1710 Total | 112010.231 539 207.811189 Root MSE = 13.126 ------------------------------------------------------------------------------ EARNINGS | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------------+---------------------------------------------------------------- S | 2.455321.2318512 10.59 0.000 1.999876 2.910765 _cons | -13.93347 3.219851 -4.33 0.000 -20.25849 -7.608444 ------------------------------------------------------------------------------

27 Modelo de regresión simple: Y =  1 +  2 X + u Eficiencia El teorema Gauss–Markov afirma que, si los supuestos del modelo de regresión son válidos, los estimadores OLS son los estimadores no sesgados de los parámetros más eficientes: BLUE: best (most efficient) linear (functions of the values of Y) unbiased estimators of the parameters. 27 Densidad de probabilidad en función de b 2 OLS Otro estimador no sesgado 22 b2b2

28 Modelo de regresión simple: Y =  1 +  2 X + u Efficiency Densidad de probabilidad en función de b 2 OLS Otro estimador no sesgado 22 28 La prueba del teorema no es difícil, pero no es prioritaria y lo tomaremos como dado. Vea la sección 2.7 del texto para una prueba para el modelo de regresión simple. b2b2

29 Copyright Christopher Dougherty 1999–2006. This slideshow may be freely copied for personal use. 21.06.06


Descargar ppt "Modelo de regresión simple: Y =  1 +  2 X + u 1 Hemos visto que los coeficientes de regresión b 1 y b 2 son variables aleatorias. Estos, respectivamente,"

Presentaciones similares


Anuncios Google