Propiedades de los estimadores MCO Piensa en otros estimadores Piensa en que propiedades quieres que cumplan los estimadores
Yi = ß Xi + ui Cinco Formas de estimar ß - 1. Media de Ratios: b1 = (1/n) Σ ( Yi / Xi) 2. Ratio de Medias: b2 = Σ Yi / Σ Xi 3. Media de cambios en Y sobre media de cambios en X: b3 = [ 1 / ( n-1 ) ] Σ [ ( Yi - Yi-1 ) / ( Xi - Xi-1 ) ] 4. MCO: b4 = Σ Xi Yi / Σ Xi2 5. Robusto: b5= Mediana (X) / Mediana (Y)
Supuestos del Modelo de Regresion Lineal Simple 1. Modelo de regresion lineal: (Lineal en los parametros) y = 1 + 2x + u 2. Muestreo aleatorio: {(yi, xi); i=1, …, n} muestra aleatoria del modelo poblacional 3. Media condicional de u es cero, E(ui| xj) = 0 4. Variacion muestral en la variable independiente 5. Homocedasticidad o igual varianza de ui, Var(ui|xj) = 2 6. Errores no correlacionados, C(ui uj)= 0 …. (ij)
¿Que significa E(ui| xj) = 0? ¿Que significa X fija? Piensa en los pares (Yi, Xi ) provenientes de un muestreo aleatorio versus un muestreo estratificado por los valores de la variable X ¿Que significa E(ui| xj) = 0? El “error” ui no varia con xj xj no aporta nada al conocimiento de ui
Teorema de Gauss-Markov En el modelo de regresion clasico (esto es, donde se tienen n observaciones independientes de Y con un muestreo con X fija, provenientes de una poblacion bivariante con funcion de la esperanza condicional lineal y varianza condicional constante), la pendiente muestral de la regresion lineal, , es el estimador lineal insesgado de minima varianza (ELIMV) de la pendiente poblacional ß2.
Para entender el Tma de Gauss-Markov: Piensa en algun estimador diferente al de MCO Estimadores lineales en Y Queremos que los estimadores sean insesgados Entre los lineales e insesgados queremos el mejor (mas eficente) ¿Existira algun otro estimador con menor varianza que el de MCO? ¿Tienen que ser los errores normales?
Comenzamos el dia estimando ß2 1) ¿Que se requiere para que un estimador lineal en Y estime insesgadamente ß2 en nuestro modelo? 2) ¿Cual es la varianza de un estimador lineal de ß2 en nuestro modelo? 3) Minimizar la varianza, sujeto a la restriccion de insesgadez (la demostracion del Tma se puede ver en Goldberger capitulo 6)
Al final del dia: