Regresión Lineal Simple yi = b0 + b1xi + ui

Slides:



Advertisements
Presentaciones similares
ESTIMACIÓN DE DENSIDAD
Advertisements

1. MODELO DE REGRESIÓN SIMPLE
1 INFORME RESUMEN SOBRE EL NIVEL DE UTILIZACION DE LAS TIC EN LAS EMPRESAS GALLEGAS ( Resumen PYMES ) Noviembre de 2004.
Tema 14. Estimación de parámetros: Estimación puntual y por intervalos
MODELO DE REGRESIÓN LINEAL SIMPLE
TEMA 2 MÚLTIPLOS Y DIVISORES
Programación entera En muchos problemas reales las variables sólo pueden tomar valores enteros Ejemplos: decisiones sobre inversiones, compras, arranques,
SISTEMA DE NUMEROS NÚMEROS ENTEROS DIVISIBILIDAD NÚMEROS PRIMOS
REGRESION Y CORRELACION
Regresión mínimo cuadrada (I)
REGRESION LINEAL SIMPLE
Descripción de los datos: medidas de dispersión
Unidad de competencia II Estadística descriptiva:
Unidad de competencia II Estadística descriptiva:
Modelos de Variable Dependiente Binaria -Logit y Probit-
Estimación. Estimación Puntual Estimación por intervalos
Estadística Administrativa I
Distribuciones de probabilidad bidimensionales o conjuntas
Estimación de parámetros poblacionales
UPC Tema: ESPACIO VECTORIAL Rn
Sistemas de Ecuaciones
Tema 1.- Aritmética. 1.-Usar el algoritmo de Euclides para calcular el máximo común divisor de a y b y expresarlo en función de a y b para: a) a= 56,
2.1 – Expresiones algebraicas
Modelos de regresión lineal
} LISSET BÁRCENAS MONTERROZA
Ecuaciones Cuadráticas
La minimización de los costes
KRIGING.
Introducción a las Señales Aleatorias ISAL
Covarianza muestral Sean x1, x2, ..., xn e y1, y2, ..., yn dos muestras aleatorias independientes de observaciones de X e Y respectivamente. La covarianza.
La ley de los grandes números
Pruebas de Especificación en el Modelo de Regresión Múltiple
PROPIEDADES ESTADÍSTICAS DE LOS ESTIMADORES
MODELO DE REGRESIÓN MÚLTIPLE
Expresiones Algebraicas
Curso de Hidrología Caudales Máximos II
Análisis de Regresión Lineal
DETERMINANTES DE UNA MATRIZ
ESTRATEGIAS Y DISEÑOS AVANZADOS DE INVESTIGACIÓN SOCIAL
La transformada de Laplace
Econometria 2. Modelo de Regresión Lineal Simple
Unidad 2 Expresiones algebraicas
Estadística 2010 Clase 5 Maestría en Finanzas Universidad del CEMA
Regresión y correlación
Sistemas de Ecuaciones lineales
ESTADIGRAFOS DE DISPERSION
Tema 1- Regresión lineal simple.
División de Estudios Políticos, CIDE
TIPOS DE MODELOS DE REGRESIÓN Y SUPUESTOS PARA EL MODELO A
Pronósticos, Series de Tiempo y Regresión
Modelo de regresión simple: Y =  1 +  2 X + u 1 Hemos visto que los coeficientes de regresión b 1 y b 2 son variables aleatorias. Estos, respectivamente,
Modelo de regresión simple: Y =  1 +  2 X + u Ahora, demostraremos que el estimador ordinario de mínimos cuadrados (OLS) del coeficiente de la pendiente.
Elementos Básicos de Probabilidad y Estadística Javier Aparicio División de Estudios Políticos, CIDE Julio 2009
Modelo de regresión con dos variables: Estimación
Estimación Sea una característica, un parámetro poblacional cuyo valor se desea conocer a partir de una muestra. Sea un estadístico ( función.
Introducción La inferencia estadística es el procedimiento mediante el cual se llega a inferencias acerca de una población con base en los resultados obtenidos.
Titular: Agustín Salvia
Introducción a la Inferencia Estadística
Inferencia Estadística
Definición del Modelo de Regresión Simple Estimaciones por MCO Método de MCO Valores Esperados y Varianzas por MCO.
Elementos Básicos de Probabilidad y Estadística
Estimación y contraste de hipótesis
Maestría en Transporte Regresamos... (el problema de la regresión lineal) Clase 5.
ESTIMACIÓN DE PARÁMETROS
Construcción de modelos con regresión y correlación
Modelos de regresión lineal
INFERENCIA ESTADÍSTICA
REGRESIÓN LINEAL SIMPLE
Free and Quick translation of Prof. Anderson's slides1 Analisis de Regresion Multiple y =  0 +  1 x 1 +  2 x  k x k + u 1. Estimacion.
Transcripción de la presentación:

Regresión Lineal Simple yi = b0 + b1xi + ui Javier Aparicio División de Estudios Políticos, CIDE javier.aparicio@cide.edu Primavera 2011 http://www.cide.edu/investigadores/aparicio/metodos.html

Contenido Estimación mediante el método de momentos Estimación por mínimos cuadrados ordinarios Bondad de ajuste: R2 Propiedades de los estimadores MCO Supuestos Gauss-Markov Insesgamiento Eficiencia

y = b0 + b1x + u donde y es: u es: mientras que x es: Variable dependiente Variable explicada Variable de lado izquierdo (duh!) Regresando u es: Residual Término de error mientras que x es: Variable independiente Variable explicativa Covariable Variable de control Regresor Variable de lado derecho b0 y b1: parámetros o coeficientes a estimar

Algunos supuestos El valor promedio de u, el término de error, en la población es = 0. Es decir, E(u) = 0 Este supuesto no es muy restrictivo puesto que siempre podemos ajustar el intercepto b0 para normalizar E(u) = 0

Media condicional = 0 Hay un supuesto crucial sobre la relación entre el error y la variable explicativa: cov(x, u) Queremos que la información contenida en x sea independiente de la información contenida en u (ie, que no estén relacionados), de modo que: E(u|x) = E(u) = 0, lo cual implica: E(y|x) = b0 + b1x

. . E(y|x) es una funcion lineal de x: para cada x, la predicción de y es E(y|x) y f(y) . E(y|x) = b0 + b1x . x1 x2

Mínimos Cuadrados Ordinarios (MCO) La idea básica es estimar parámetros poblacionales a partir de una muestra. Sea {(xi,yi): i=1, …,n} una muestra aleatoria de tamaño n de una población. Para cada observación en la muestra, tenemos: yi = b0 + b1xi + ui

. . . . Línea de regresión, observaciones y errores { y E(y|x) = b0 + b1x . y4 u4 { . y3 u3 } . y2 u2 { u1 . y1 } x1 x2 x3 x4 x

Derivación de estimadores MCO /OLS El supuesto E(u|x) = E(u) = 0 implica que Cov(x,u) = E(xu) = 0 ¿Por qué? En probabilidad básica sabemos que: Cov(x,u) = E(xu) – E(x)E(u) y dado que E(u)=0  Cov(x,u) = E(xu) = 0

…continuación MCO/OLS El doble supuesto E(xu) = E(u) = 0 se traduce en dos restricciones. Y dado que: u = y – b0 – b1x, podemos reescribir estas dos restricciones en términos de x, b0 y b1 : E(u) = E(y – b0 – b1x) = 0 E(xu) = E[x(y – b0 – b1x)] = 0 Conocidas como las “restricciones de momentos”

Derivación de MCO usando el Método de Momentos (MOM) (Breviario: el 1º, 2º, 3º y 4º momentos de una función de distribución de una variable aleatoria son la media, varianza, sesgo y kurtosis, respectivamente.) El método de momentos consiste en imponer las restricciones de momentos, asumidas como ciertas para la población, en los momentos de la muestra. ¿Pero cómo? Recuerden que un estimador muestral de E(X), la media de una población, es simplemente la media aritmética de la muestra.

Derivación de MCO / OLS La idea es buscar parámetros que nos aseguren que las restricciones de momentos se cumplan en la muestra. Las restricciones muestrales son (el gorrito denota “parámetros estimados”): (1ª) (2ª )

Estimador MCO / OLS: intercepto Dada la definición de media muestral y las propiedades de la sumatorias, podemos reescribir la primera restricción como sigue:

Derivación de MCO / OLS Y ahora, sustituyendo b0 en la segunda restricción, tenemos: Aquí hay un paso “mágico” ver apéndice A.7 y A.8.

…estimador MCO / OLS: pendiente b1

Sobre el estimador MCO de b1 b1, es la covarianza muestral entre x y y, dividida entre la varianza muestral de x. Si x y y están correlacionados positivamente, b1 será positivo (pues la varianza del denominador siempre es positiva). Si x y y están correlacionados negativamente, b1 será negativo. Si x y y no tienen correlación alguna, b1 no será estadísticamente distinto de cero (volveremos a esto más tarde). Obviamente, requerimos que x tenga cierta varianza en la muestra.

MCO / OLS Intuitivamente, MCO ajusta una línea a través de los datos muestrale, de modo que la suma de residuales al cuadrado (SSR) sea la mínima posible: de ahí el término “mínimos cuadrados”. El residual, û, es un estimado del término de error entre lo observado y lo predicho, es decir, la diferencia entre la línea de regresión (fitted line) y el dato observado. Ver gráfica...

Línea de regresión muestral, observaciones, y residuales estimados . y4 { û4 . } û3 y3 . y2 û2 { } . û1 y1 x1 x2 x3 x4 x

Un enfoque alternativo: Minimizar residuales al cuadrado Siguiendo la idea de ajustar una línea de regresión, podemos plantear un problema de minimización. Es decir, buscar parámetros b tales que minimicen la siguiente expresión:

...continuación Usando cálculo para resolver un problema de minimización con dos parámetros resulta en dos condiciones de primer orden (FOC)–similares a las restricciones de momentos vistas antes, pero ahora multiplicadas por n:

Propiedades algebraicas de MCO / OLS Al minimizar los residuales cuadrados: La suma de los residuales de MCO será igual a cero. Por ende, la media muestral de los residuales será cero también. La covarianza muestral entre las variables explicativas y los residuales será cero. La línea de regresión de MCO siempre cruzará la media de la muestra, ie, la media de x y la media de y.

Propiedades algebraicas (matemáticamente) Es decir, la solución de MCO es idéntica a la del método de momentos.

Suma de cuadrados: Terminología SST es la suma de “desviaciones al cuadrado” de las observaciones de la muestra: es proporcional, más no igual, a VAR(y).

Demostración: SST = SSE + SSR

Bondad de ajuste: R2 ¿Cómo saber qué tan bueno es el ajuste entre la línea de regresión y los datos de la muestra? Podemos calcular la proporción de la Suma de cuadrados totales (SST) que es “explicada” por el modelo. Esto es la llamada R-cuadrada de una regresión: R2 = SSE/SST = 1 – SSR/SST

Haciendo regresiones con stata Hemos visto como derivar las fórmulas para calcular estimadores MCO de nuestros parámetros de interés b. Podemos calcularlos “a mano” (muy tedioso), o aplicar estas fórmulas en una hoja de cálculo como excel (algo tedioso), o bien usar un paquete estadístico estándar como stata (muy fácil) Para correr una regresión de y en x en stata: regress y x1 x2 x3 (ver ejemplo)

Sesgo y eficiencia de MCO Dos características deseables de cualquier estimador estadístico son: Insesgamiento (unbiasedness): que el parámetro estimado sea, en promedio, igual al “verdadero” parámetro poblacional. Eficiencia (efficiency): que la varianza del estimador sea mínima (ie, máxima precisión). Así, buscamos estimadores con sesgo mínimo y máxima eficiencia (ie, mínima varianza). MCO cuenta con ambas propiedades bajo ciertas condiciones: los supuestos Gauss-Markov.

Supuestos Gauss-Markov I: Insesgamiento de MCO/OLS El modelo poblacional es lineal en sus parámetros: y = b0 + b1x + u Muestra aleatoria de tamaño n, {(xi, yi): i=1, 2, …, n}, representativa de la población, de modo que el modelo muestral es: yi = b0 + b1xi + ui Media condicional cero: E(u|x) = 0 y por tanto E(ui|xi) = 0 Varianza(xi ) > 0

Insesgamiento de MCO Para analizar el sesgo del estimador, necesitamos reescribirlo en términos del parámetro poblacional. De modo que reescribimos la fórmula para b1 como:

Insesgamiento de MCO (cont.) Sustituyendo para yi, el numerador de la expresión anterior puede descomponerse como sigue: desviaciones de x + n*var(x) + n*cov(x,u)

Insesgamiento de MCO (cont.)

Insesgamiento de MCO (cont.) El operador E(.) aplica a ui, el único componente aleatorio de la expresión. El valor esperado de la b1 estimada es el “verdadero” parámetro poblacional—toda vez que los 4 supuestos Gauss-Markov se cumplan.

Insesgamiento: resumen Los estimadores MCO de b1 y b0 son insesgados. La demostración de esto depende de los 4 supuestos Gauss-Markov: si alguno de ellos no se cumple, MCO no necesariamente será insesgado. El insesgamiento es una propiedad del estimador muestral: dada cierta muestra, éste puede estar cerca o lejos del verdadero parámetro poblacional.

Varianza de los estimadores MCO Ya vimos que la “distribución muestral” de nuestro estimador está centrada en torno al “verdadero” parámetro. ¿Qué tan dispersa será la distribución del estimador? Para analizar esto, requerimos un supuesto Gauss-Markov adicional (el 5º): var(u|x) = s2 conocido como homoscedasticidad (homoskedasticity): varianza constante.

Varianza de MCO (cont.) Por estadística sabemos que: s2 = Var(u|x) = E(u2|x)-[E(u|x)]2 Y como E(u|x) = 0, entonces: s2 = E(u2|x) = E(u2) = Var(u) De modo que s2 es la varianza no condicional de los residuales, también llamada varianza del error. s, la raíz cuadrada de la varianza del error, se conoce como la desviación estándar del error. Con lo cual podemos decir que: E(y|x)=b0 + b1x Var(y|x) = s2

Homoscedasticidad y f(y|x) . E(y|x) = b0 + b1x . x1 x2

Heteroscedasticidad f(y|x) y . . E(y|x) = b0 + b1x . x1 x2 x3 x

Varianza de MCO (cont.)

Varianza de MCO: resumen A mayor varianza del error, s2, mayor varianza del estimador de b1. A mayor varianza en xi, menor varianza del estimador de b1. Por ende, a mayor tamaño de muestra, n, menor varianza del estimador de b1. Pero ojo, la varianza del error es “desconocida”: necesitamos estimarla también.

Estimación de la varianza del error No conocemos la varianza del error, s2, porque no observamos los errores de la población, ui Lo que observamos son los residuales (estimados) del modelo muestral: Pero podemos usar los residuales estimados para construir un estimador de la varianza del error.

Estimación de la varianza del error

Estimación de la varianza del error Y, una vez que conocemos el error estándar de b1 estimada, podemos calcular su intervalo de confianza y hacer pruebas de hipótesis.

Apéndice A. Propiedades del operador Suma

Apéndice A. Propiedades del operador Suma