Modelo de regresión simple: Y =  1 +  2 X + u Ahora, demostraremos que el estimador ordinario de mínimos cuadrados (OLS) del coeficiente de la pendiente.

Slides:



Advertisements
Presentaciones similares
DISEÑO DE EXPERIMENTOS EXPERIMENTOS DE COMPARACIÓN SIMPLE
Advertisements

Tema 6: Regresión lineal.
Tema. 5. Variabilidad. Concepto
Tema.9.Predicción y estimación. Concepto. Cálculo de la ecuación de regresión lineal. Modelo general lineal. Evaluación del modelo. Diagnóstico del modelo.
MODELO DE REGRESIÓN LINEAL SIMPLE
Regresión lineal simple
Regresión mínimo cuadrada (I)
REGRESION LINEAL SIMPLE
ERROR ESTÁNDAR CONSISTENTE BAJO HETEROSCEDASTICIDAD
} LISSET BÁRCENAS MONTERROZA
KRIGING.
GEOESTADISTICA MULTIVARIADA
Covarianza muestral Sean x1, x2, ..., xn e y1, y2, ..., yn dos muestras aleatorias independientes de observaciones de X e Y respectivamente. La covarianza.
INFERENCIA ESTADISTICA
Pruebas de Especificación en el Modelo de Regresión Múltiple
PROPIEDADES ESTADÍSTICAS DE LOS ESTIMADORES
MODELO DE REGRESIÓN MÚLTIPLE
Análisis de Regresión Lineal
MANUAL DE LABORATORIO DE CÓMPUTO ECONOMETRÍA I MULTICOLINEALIDAD
ESTRATEGIAS Y DISEÑOS AVANZADOS DE INVESTIGACIÓN SOCIAL
Medidas de dispersión y variabilidad
Econometria 2. Modelo de Regresión Lineal Simple
Regresión y correlación
Regresión Lineal Simple yi = b0 + b1xi + ui
Tema 1- Regresión lineal simple.
Curso de Estadística Básica
9 Regresión Lineal Simple
División de Estudios Políticos, CIDE
Regresión y Correlación
MODELOS DE ELECCIÓN BINARIA: ANÁLISIS LOGIT
TIPOS DE MODELOS DE REGRESIÓN Y SUPUESTOS PARA EL MODELO A
MODELOS DE ELECCIÓN BINARIA : ANÁLISIS PROBIT
Curso de Bioestadística. ANOVA
Pronósticos, Series de Tiempo y Regresión
Pronósticos, Series de Tiempo y Regresión
1 INTERPRETACIÓN DE UNA ECUACIÓN DE REGRESIÓN El diagrama muestra el ingreso por hora en 2002 graficado contra los años de educación, definido como el.
VARIABLE ALEATORIA Y DISTRIBUCION DE PROBABILIDAD
Modelo de regresión simple: Y =  1 +  2 X + u 1 Hemos visto que los coeficientes de regresión b 1 y b 2 son variables aleatorias. Estos, respectivamente,
Elementos Básicos de Probabilidad y Estadística Javier Aparicio División de Estudios Políticos, CIDE Julio 2009
DERIVADO DE LOS COEFICIENTES DE REGRESIÓN LINEAL Y X Esta sequencia muestra cómo los coeficientes de regresión para un modelo de regresión lineal simple.
ESTIMACIÓN DE COEFICIENTES DE MÁXIMA VEROSIMILITUD
1 Metodología para Estimaciones de la Actividad Económica del Estado de Nuevo León Marzo 2005.
LOS COMPONENTES ALEATORIOS DE LOS COEFICIENTES DE REGRESIÓN
Métodos de calibración: regresión y correlación
Universidad Nacional de Colombia Curso Análisis de Datos Cuantitativos.
Titular: Agustín Salvia
Introducción a la Inferencia Estadística
Estadística para administradores
RELACIÓN GRÁFICA EN UN MODELO DE REGRESIÓN MULTIPLE. reg EARNINGS S EXP Source | SS df MS Number of obs =
LA PRUEBA F DE BONDAD DE AJUSTE 2 Vamos a considerar el caso general donde hay k – 1 variables explicativas. Para la prueba F de bondad de ajuste de la.
Estimador de Efectos Fijos
SEMINARIO DE INVESTIGACION Titular: Agustín Salvia
Muestreos.
ANÁLISIS DE REGRESIÓN SIMPLE
Elementos Básicos de Probabilidad y Estadística
REGRESIÓN MULTIPLE CON DOS VARIABLES EXPLICATIVAS: EJEMPLO INGRESO EXP S 11 1 INGRESO =  1 +  2 S +  3 EXP + u Esta presentación proporciona una interpretación.
1 Y MODELO DE REGRESIÓN SIMPLE Suponemos que una variable Y es una función lineal de otra variable X, con parámetros desconocidos  1 y  2 que queremos.
Construcción de la tabla del ANOVA
Maestría en Transporte Regresamos... (el problema de la regresión lineal) Clase 5.
Regresión Lineal Simple
ESTIMACIÓN DE PARÁMETROS
MODELOS DE PRONOSTICOS Primer semestre 2010 Modelo de Regresión con dos variables.
REGRESIÓN LINEAL SIMPLE
Modelos de regresión lineal
Aspectos generales de la investigación educativa en el SNIT
Germán Fromm R. 1. Objetivo Entender los diseños metodológicos predictivos 2.
REGRESIÓN LINEAL SIMPLE
REGRESIÓN LINEAL SIMPLE. Temas Introducción Análisis de regresión (Ejemplo aplicado) La ecuación de una recta Modelo estadístico y suposiciones Estimación.
Tarea 1 Nombre: Maximiliano Orozco Castro Matemáticas para gastronomía.
Free and Quick translation of Prof. Anderson's slides1 Analisis de Regresion Multiple y =  0 +  1 x 1 +  2 x  k x k + u 1. Estimacion.
Transcripción de la presentación:

Modelo de regresión simple: Y =  1 +  2 X + u Ahora, demostraremos que el estimador ordinario de mínimos cuadrados (OLS) del coeficiente de la pendiente en un modelo de regresión no tiene sesgo. ( unbiased) 1 INSESGAMIENTO DE LOS COEFICIENTES DE REGRESIÓN

Modelo de regresión simple: Y =  1 +  2 X + u Vimos en una presentación anterior que el coeficiente de la pendiente se puede descomponer en el valor real y una suma ponderada de los valores del término de error. weighted sum of the values of the disturbance term. 2 INSESGAMIENTO DE LOS COEFICIENTES DE REGRESIÓN

Modelo de regresión simple: Y =  1 +  2 X + u Por lo tanto, el valor esperado de b 2 es igual al valor esperado de  2 y el valor esperado de la suma ponderada de los valores del término de error. 3 INSESGAMIENTO DE LOS COEFICIENTES DE REGRESIÓN

Modelo de regresión simple: Y =  1 +  2 X + u  2 es fijo, por lo que no es afectado por las expectativas. La primera regla del valor esperado (capítulo de revisión) indica que la expectativa de una suma de varias cantidades es igual a la suma de sus expectativas. 4 INSESGAMIENTO DE LOS COEFICIENTES DE REGRESIÓN

Modelo de regresión simple: Y =  1 +  2 X + u Ahora para cada i, E(a i u i ) = a i E(u i ). Este es un paso realmente importante y sólo lo podemos llevar a cabo con el Modelo A. 5 INSESGAMIENTO DE LOS COEFICIENTES DE REGRESIÓN

Modelo de regresión simple: Y =  1 +  2 X + u Bajo el Modelo A, estamos asumiendo que los valores de X en las observaciones no son aleatorios. Por lo que cada a i no es eleatoria dado que sólo es una combinación de los valores de X. 6 INSESGAMIENTO DE LOS COEFICIENTES DE REGRESIÓN

Modelo de regresión simple: Y =  1 +  2 X + u De este modo puede ser tratado como constante, permitiendo que la saquemos de la expectativa usando la segunda regla del valor esperado (capítulo de la revisión). 7 INSESGAMIENTO DE LOS COEFICIENTES DE REGRESIÓN

Modelo de regresión simple: Y =  1 +  2 X + u Bajo el supuesto, A.3, E(u i ) = 0 para toda i, yel estimador es insesgado. La prueba de la imparcialidad del estimador del intercepto se dejará como un ejercicio. 8 INSESGAMIENTO DE LOS COEFICIENTES DE REGRESIÓN

Modelo de regresión simple: Y =  1 +  2 X + u Es importante notar que los estimadores OLS de los parámetros no son los únicos insesgados. Daremos ejemplos de otros. 9 INSESGAMIENTO DE LOS COEFICIENTES DE REGRESIÓN

Modelo de regresión simple: Y =  1 +  2 X + u Alguien que nunca ha oído hablar de análisis de regresión, viendo un diagrama de dispersión de una muestra de observaciones, podría estimar la pendiente uniendo la primera y la última observaciones, y dividiendo el aumento en la altura por la distancia horizontal entre ellas. 10 Y Y1Y1 X1X1 XnXn YnYn X Y n – Y 1 X n – X 1 INSESGAMIENTO DE LOS COEFICIENTES DE REGRESIÓN

Modelo de regresión simple: Y =  1 +  2 X + u Por lo tanto, el estimador es (Y n –Y 1 ) dividido entre (X n –X 1 ). Investigaremos si está sesgado o no. 11 Y Y1Y1 X1X1 XnXn YnYn X Y n – Y 1 X n – X 1 INSESGAMIENTO DE LOS COEFICIENTES DE REGRESIÓN

Modelo de regresión simple: Y =  1 +  2 X + u Para hacer esto, comenzaremos substituyendo los compoenetes Y en la expresión. 12 Y Y1Y1 X1X1 XnXn YnYn X INSESGAMIENTO DE LOS COEFICIENTES DE REGRESIÓN

Modelo de regresión simple: Y =  1 +  2 X + u Los términos  1 se anulan y el resto de la expresión se simplifica como se muestra. Así hemos descompuesto este estimador en dos componentes, el valor real y un término de error. Esta descomposición es paralela a la del estimador OLS, pero el término del error es diferente. 13 INSESGAMIENTO DE LOS COEFICIENTES DE REGRESIÓN

Modelo de regresión simple: Y =  1 +  2 X + u Ahora tomamos expectativas para investigar imparcialidad. 14 INSESGAMIENTO DE LOS COEFICIENTES DE REGRESIÓN

Modelo de regresión simple : Y =  1 +  2 X + u El denominador del término de error puede sacarse porque los valores de X no son aleatorios. 15 INSESGAMIENTO DE LOS COEFICIENTES DE REGRESIÓN

Modelo de regresión simple: Y =  1 +  2 X + u Dado el supuesto A.3, las expectativas de u n y u 1 son cero. Por lo tanto, a pesar de ser naïve, este estimador no está sesgado.. 16 INSESGAMIENTO DE LOS COEFICIENTES DE REGRESIÓN

Modelo de regresión simple: Y =  1 +  2 X + u Es intuitivamente fácil saber que no preferiremos el estimador naïve sobre el OLS. A diferencia del OLS, que toma cuenta de cada observación, emplea solamente la primera y la última, por lo que está perdiendo la mayor parte de la información en la muestra. 17 INSESGAMIENTO DE LOS COEFICIENTES DE REGRESIÓN

Modelo de regresión simple: Y =  1 +  2 X + u El estimador naïve será sensible al valor del término de error u en esas dos observaciones, mientras que el estimador OLS combina todo los valores del término de error y aprovecha la posibilidad de que, hasta cierto punto, se anulen. 18 INSESGAMIENTO DE LOS COEFICIENTES DE REGRESIÓN

Modelo de regresión simple: Y =  1 +  2 X + u Con mayor rigor, puede ser demostrado que la variación de población del estimador naïve es mayor que la del estimador OLS, y que el estimador naïve es por lo tanto menos eficiente. 19 INSESGAMIENTO DE LOS COEFICIENTES DE REGRESIÓN

Copyright Christopher Dougherty 1999–2006. This slideshow may be freely copied for personal use