La descarga está en progreso. Por favor, espere

La descarga está en progreso. Por favor, espere

Modelo de regresión simple: Y =  1 +  2 X + u Ahora, demostraremos que el estimador ordinario de mínimos cuadrados (OLS) del coeficiente de la pendiente.

Presentaciones similares


Presentación del tema: "Modelo de regresión simple: Y =  1 +  2 X + u Ahora, demostraremos que el estimador ordinario de mínimos cuadrados (OLS) del coeficiente de la pendiente."— Transcripción de la presentación:

1 Modelo de regresión simple: Y =  1 +  2 X + u Ahora, demostraremos que el estimador ordinario de mínimos cuadrados (OLS) del coeficiente de la pendiente en un modelo de regresión no tiene sesgo. ( unbiased) 1 INSESGAMIENTO DE LOS COEFICIENTES DE REGRESIÓN

2 Modelo de regresión simple: Y =  1 +  2 X + u Vimos en una presentación anterior que el coeficiente de la pendiente se puede descomponer en el valor real y una suma ponderada de los valores del término de error. weighted sum of the values of the disturbance term. 2 INSESGAMIENTO DE LOS COEFICIENTES DE REGRESIÓN

3 Modelo de regresión simple: Y =  1 +  2 X + u Por lo tanto, el valor esperado de b 2 es igual al valor esperado de  2 y el valor esperado de la suma ponderada de los valores del término de error. 3 INSESGAMIENTO DE LOS COEFICIENTES DE REGRESIÓN

4 Modelo de regresión simple: Y =  1 +  2 X + u  2 es fijo, por lo que no es afectado por las expectativas. La primera regla del valor esperado (capítulo de revisión) indica que la expectativa de una suma de varias cantidades es igual a la suma de sus expectativas. 4 INSESGAMIENTO DE LOS COEFICIENTES DE REGRESIÓN

5 Modelo de regresión simple: Y =  1 +  2 X + u Ahora para cada i, E(a i u i ) = a i E(u i ). Este es un paso realmente importante y sólo lo podemos llevar a cabo con el Modelo A. 5 INSESGAMIENTO DE LOS COEFICIENTES DE REGRESIÓN

6 Modelo de regresión simple: Y =  1 +  2 X + u Bajo el Modelo A, estamos asumiendo que los valores de X en las observaciones no son aleatorios. Por lo que cada a i no es eleatoria dado que sólo es una combinación de los valores de X. 6 INSESGAMIENTO DE LOS COEFICIENTES DE REGRESIÓN

7 Modelo de regresión simple: Y =  1 +  2 X + u De este modo puede ser tratado como constante, permitiendo que la saquemos de la expectativa usando la segunda regla del valor esperado (capítulo de la revisión). 7 INSESGAMIENTO DE LOS COEFICIENTES DE REGRESIÓN

8 Modelo de regresión simple: Y =  1 +  2 X + u Bajo el supuesto, A.3, E(u i ) = 0 para toda i, yel estimador es insesgado. La prueba de la imparcialidad del estimador del intercepto se dejará como un ejercicio. 8 INSESGAMIENTO DE LOS COEFICIENTES DE REGRESIÓN

9 Modelo de regresión simple: Y =  1 +  2 X + u Es importante notar que los estimadores OLS de los parámetros no son los únicos insesgados. Daremos ejemplos de otros. 9 INSESGAMIENTO DE LOS COEFICIENTES DE REGRESIÓN

10 Modelo de regresión simple: Y =  1 +  2 X + u Alguien que nunca ha oído hablar de análisis de regresión, viendo un diagrama de dispersión de una muestra de observaciones, podría estimar la pendiente uniendo la primera y la última observaciones, y dividiendo el aumento en la altura por la distancia horizontal entre ellas. 10 Y Y1Y1 X1X1 XnXn YnYn X Y n – Y 1 X n – X 1 INSESGAMIENTO DE LOS COEFICIENTES DE REGRESIÓN

11 Modelo de regresión simple: Y =  1 +  2 X + u Por lo tanto, el estimador es (Y n –Y 1 ) dividido entre (X n –X 1 ). Investigaremos si está sesgado o no. 11 Y Y1Y1 X1X1 XnXn YnYn X Y n – Y 1 X n – X 1 INSESGAMIENTO DE LOS COEFICIENTES DE REGRESIÓN

12 Modelo de regresión simple: Y =  1 +  2 X + u Para hacer esto, comenzaremos substituyendo los compoenetes Y en la expresión. 12 Y Y1Y1 X1X1 XnXn YnYn X INSESGAMIENTO DE LOS COEFICIENTES DE REGRESIÓN

13 Modelo de regresión simple: Y =  1 +  2 X + u Los términos  1 se anulan y el resto de la expresión se simplifica como se muestra. Así hemos descompuesto este estimador en dos componentes, el valor real y un término de error. Esta descomposición es paralela a la del estimador OLS, pero el término del error es diferente. 13 INSESGAMIENTO DE LOS COEFICIENTES DE REGRESIÓN

14 Modelo de regresión simple: Y =  1 +  2 X + u Ahora tomamos expectativas para investigar imparcialidad. 14 INSESGAMIENTO DE LOS COEFICIENTES DE REGRESIÓN

15 Modelo de regresión simple : Y =  1 +  2 X + u El denominador del término de error puede sacarse porque los valores de X no son aleatorios. 15 INSESGAMIENTO DE LOS COEFICIENTES DE REGRESIÓN

16 Modelo de regresión simple: Y =  1 +  2 X + u Dado el supuesto A.3, las expectativas de u n y u 1 son cero. Por lo tanto, a pesar de ser naïve, este estimador no está sesgado.. 16 INSESGAMIENTO DE LOS COEFICIENTES DE REGRESIÓN

17 Modelo de regresión simple: Y =  1 +  2 X + u Es intuitivamente fácil saber que no preferiremos el estimador naïve sobre el OLS. A diferencia del OLS, que toma cuenta de cada observación, emplea solamente la primera y la última, por lo que está perdiendo la mayor parte de la información en la muestra. 17 INSESGAMIENTO DE LOS COEFICIENTES DE REGRESIÓN

18 Modelo de regresión simple: Y =  1 +  2 X + u El estimador naïve será sensible al valor del término de error u en esas dos observaciones, mientras que el estimador OLS combina todo los valores del término de error y aprovecha la posibilidad de que, hasta cierto punto, se anulen. 18 INSESGAMIENTO DE LOS COEFICIENTES DE REGRESIÓN

19 Modelo de regresión simple: Y =  1 +  2 X + u Con mayor rigor, puede ser demostrado que la variación de población del estimador naïve es mayor que la del estimador OLS, y que el estimador naïve es por lo tanto menos eficiente. 19 INSESGAMIENTO DE LOS COEFICIENTES DE REGRESIÓN

20 Copyright Christopher Dougherty 1999–2006. This slideshow may be freely copied for personal use. 01.07.06


Descargar ppt "Modelo de regresión simple: Y =  1 +  2 X + u Ahora, demostraremos que el estimador ordinario de mínimos cuadrados (OLS) del coeficiente de la pendiente."

Presentaciones similares


Anuncios Google