Free and Quick translation of Prof. Anderson's slides1 Analisis de Regresion Multiple y =  0 +  1 x 1 +  2 x 2 +...  k x k + u 1. Estimacion.

Slides:



Advertisements
Presentaciones similares
1. MODELO DE REGRESIÓN SIMPLE
Advertisements

MÉTODOS Y DISEÑOS DE INVESTIGACIÓN METODOLOGÍAS DE INVESTIGACIÓN
Tema 2. El modelo de regresión lineal simple
REGRESION Y CORRELACION
Regresión mínimo cuadrada (I)
REGRESION LINEAL SIMPLE
} LISSET BÁRCENAS MONTERROZA
KRIGING.
REGRESION Y CORRELACION LINEALES. REGRESION LINEAL SIMPLE Finalidad Estimar los valores de y (variable dependiente) a partir de los valores de x (variable.
Covarianza muestral Sean x1, x2, ..., xn e y1, y2, ..., yn dos muestras aleatorias independientes de observaciones de X e Y respectivamente. La covarianza.
PROPIEDADES ESTADÍSTICAS DE LOS ESTIMADORES
MODELO DE REGRESIÓN MÚLTIPLE
Estimación por intervalos de confianza.
MANUAL DE LABORATORIO DE CÓMPUTO ECONOMETRÍA I MULTICOLINEALIDAD
ESTRATEGIAS Y DISEÑOS AVANZADOS DE INVESTIGACIÓN SOCIAL
Econometria 2. Modelo de Regresión Lineal Simple
Modelo básico de regresión Lineal
Estadística 2010 Clase 5 Maestría en Finanzas Universidad del CEMA
Regresión y correlación
Regresión Lineal Simple yi = b0 + b1xi + ui
Regresión Lineal Simple
9 Regresión Lineal Simple
División de Estudios Políticos, CIDE
Tema 2: Métodos de ajuste
COMPORTAMIENTO DE LAS DISTRIBUCIONES DE
TIPOS DE MODELOS DE REGRESIÓN Y SUPUESTOS PARA EL MODELO A
Modelo de regresión simple: Y =  1 +  2 X + u 1 Hemos visto que los coeficientes de regresión b 1 y b 2 son variables aleatorias. Estos, respectivamente,
Tema 17: Contraste paramétrico de hipótesis I: Pruebas de contraste para un grupo. Pruebas de contraste para dos grupos: independientes o relacionados.
Tema 7: Regresión Simple y Múltiple. EJEMPLO: Aproxima bien el número de préstamos que efectúa una biblioteca a lo largo de su primer año de vida. Nos.
Modelo de regresión con dos variables: Estimación
ESTIMACION En varios pasajes de este libro hemos planteado la dificultad que se confronta en las investigaciones, de llegar a conclusiones sobre una población.
Introducción La inferencia estadística es el procedimiento mediante el cual se llega a inferencias acerca de una población con base en los resultados obtenidos.
Titular: Agustín Salvia
Introducción a la Inferencia Estadística
Análisis de regresión MCO MELI.
Estimador de Efectos Fijos
Pruebas de hipótesis.
Definición del Modelo de Regresión Simple Estimaciones por MCO Método de MCO Valores Esperados y Varianzas por MCO.
1 Y MODELO DE REGRESIÓN SIMPLE Suponemos que una variable Y es una función lineal de otra variable X, con parámetros desconocidos  1 y  2 que queremos.
Maestría en Transporte Regresamos... (el problema de la regresión lineal) Clase 5.
PARA LA REGRESIÓN LINEAL SIMPLE
Estadística II Regresión Lineal.
Regresión Lineal Simple
ESTIMACIÓN DE PARÁMETROS
Capitulo 11: Modelos dinámicos
MANUAL DE LABORATORIO DE CÓMPUTO ECONOMETRÍA I MODELO DE REGRESIÓN GENERAL 1 Profesor: Barland A. Huamán Bravo 2011 UNIVERSIDAD NACIONAL AGRARIA DE LA.
Regresión lineal simple Nazira Calleja
MODELOS DE PRONOSTICOS Primer semestre 2010 Modelo de Regresión con dos variables.
ANÁLISIS DE LA INFORMACIÓN La relación entre variables.
Modelos de regresión lineal
Clase N°11 Métodos de reducción de varianza
INFERENCIA ESTADÍSTICA
Germán Fromm R. 1. Objetivo Entender los diseños metodológicos predictivos 2.
Free and Quick Translation of Anderson's slides
ECONOMETRIA 2. MODELO LINEAL SIMPLE Hernán Delgadillo Dorado
REGRESIÓN LINEAL SIMPLE
REGRESIÓN LINEAL SIMPLE. Temas Introducción Análisis de regresión (Ejemplo aplicado) La ecuación de una recta Modelo estadístico y suposiciones Estimación.
REGRESIÓN LINEAL SIMPLE TEMA INTRODUCCIÓN Determinar la ecuación de regresión sirve para: – Describir de manera concisa la relación entre variables.
Free and Quick Translation of Anderson's slides1 Analisis de Regresion Multiple y =  0 +  1 x 1 +  2 x  k x k + u 4. Mas Aspectos de este Modelo.
Intervalos de Confianza M. C. José Juan Rincón Pasaye UMSNH – FIE Mayo de 2003.
1 REGRESIÓN CON VARIABLES DICOTÓMICAS TEMA 1 (CONTINUACIÓN)
Free and Quick Translation of Anderson's slides1 Analisis de Regresión Múltiple y =  0 +  1 x 1 +  2 x  k x k + u 5. Variables Dummies o Artificiales.
ANALISIS DE VARIANZA.
Bioestadistica II 2014 FACULTAD DE CIENCIAS EXACTAS, FÍSICAS Y NATURALES. UNIVERSIDAD NACIONAL DE CÓRDOBA.
Free and Quick Translation of Anderson's slides1 Modelo de Regresión Lineal Simple y =  0 +  1 x + u.
Analisis de Regresion Multiple
Free and Quick Translation of Anderson's slides
Analisis de Regresion Multiple
Modelo de Regresión Lineal Simple
Analisis de Regresion Multiple
Transcripción de la presentación:

Free and Quick translation of Prof. Anderson's slides1 Analisis de Regresion Multiple y =  0 +  1 x 1 +  2 x  k x k + u 1. Estimacion

Free and Quick translation of Prof. Anderson's slides2 Similitudes con la regresion simple  0 es todavia la constante  1 a  k son llamados pendientes u es todavia el termino error Seguimos necesitando suponer que cierta esperanza condicional es zero, asi ahora asumimos que E(u|x 1,x 2, …,x k ) = 0 Todavia minimizamos la suma de residuos al cuadrado, asi tenemos k+1 condiciones de primer orden

Free and Quick translation of Prof. Anderson's slides3 Interpretando el modelo de regresion multiple

Free and Quick translation of Prof. Anderson's slides4 Interpretacion via regresion particionada

Free and Quick translation of Prof. Anderson's slides5 Regresion particionada, cont La ecuacion previa implica que regresar y sobre x 1 y x 2 produce el mismo efecto de x 1 como regresar y sobre los residuos de la regresion de x 1 sobre x 2 Esto significa que solo la parte de x i1 que esta incorrelacionada con x i2 esta siendo relacionada con y i es decir, estamos estimando el fecto de x 1 sobre y despues de haber sacado fuera x 2

Free and Quick translation of Prof. Anderson's slides6 Simple vs Reg Multiple

Free and Quick translation of Prof. Anderson's slides7 Bondad del Ajuste

Free and Quick translation of Prof. Anderson's slides8 Bondad del Ajuste (cont) Como decidimos si el ajuste realizado por la recta de regresion lineal a los datos muestrales es bueno o malo? Podemos calcular la fraccion de la suma total de cuadrados (SCT) que es explicada por el modelo y llamar a esto el R-cuadrado de la regresion R 2 = SCE/SCT = 1 – SCE/SCT

Free and Quick translation of Prof. Anderson's slides9 Bondad de Ajuste (cont)

Free and Quick translation of Prof. Anderson's slides10 Mas sobre el R 2 R 2 no puede decrecer cuando se inlcuye otra variable independiente en la regresion, y generalmente aumentara Debido a que R 2 generalmente aumentara con el numero de variables independientes, no es una buena medida para comparar modelos

Free and Quick translation of Prof. Anderson's slides11 Supuestos para Insesgadez Modelo poblacional es lineal en los parametros: y =  0 +  1 x 1 +  2 x 2 +…+  k x k + u Podemos usar una muestra aleatoria de tamaño n, {(x i1, x i2,…, x ik, y i ): i=1, 2, …, n}, del modelo poblacional, tal que el modelo muestral es y i =  0 +  1 x i1 +  2 x i2 +…+  k x ik + u i E(u|x 1, x 2,… x k ) = 0, implicando que todas las variables explicativas son exogenas Ninguna de las x’s es constante, y no hay una relacion lineal exacta entre ellas

Free and Quick translation of Prof. Anderson's slides12 Muchas o Pocas Variables Que pasa si introducimos variables en nuestra especificacion que no pertenecen a ella? No hay efecto sobre nuestro parametro estimado, y MCO sigue siendo insesgado Y si excluimos una variable de nuestra especificacion a la que pertenece? MCO sera sesgado

Free and Quick translation of Prof. Anderson's slides13 Sesgo de Variable Omitida

Free and Quick translation of Prof. Anderson's slides14 Sesgo de Variable Omitida (cont)

Free and Quick translation of Prof. Anderson's slides15 Sesgo de Variable Omitida (cont)

Free and Quick translation of Prof. Anderson's slides16 Sesgo de Variable Omitida (cont)

Free and Quick translation of Prof. Anderson's slides17 Resumen de la Direccion del Sesgo Corr(x 1, x 2 ) > 0Corr(x 1, x 2 ) < 0  2 > 0 Sesgo PositivoSesgo Negativo  2 < 0 Sesgo NegativoSesgo Positivo

Free and Quick translation of Prof. Anderson's slides18 Resumen del Sesgo de Variable Omitida Dos casos donde el sesgo es zero  2 = 0, es decir x 2 no pertenece al modelo x 1 y x 2 estan incorrelacionadas en la muestra Si la correlacion entre (x 2, x 1 ) y (x 2, y) va en la misma direccion, el sesgo sera positivo Si la correlacion entre (x 2, x 1 ) y (x 2, y) va en direccion opuesta, el sesgo sera negativo

Free and Quick translation of Prof. Anderson's slides19 El Caso mas General Tecnicamente solo podemos aignarle un signo al sesgo en el caso mas general si todas las variables x’s estan incorrelacionadas Tipicamente analizaremos el sesgo asumiendo que x’s estan incorrelacionadas como una guia util aunque este supuesto no sea cierto

Free and Quick translation of Prof. Anderson's slides20 Varianza de los Estimadores MCO Ahora ya sabemos que la distribucion muestral de nuestro estimador esta centrada alrededor del verdadero valor del parametro Como es esa distribucion? Mas facil pensar sobre la varianza de la distribucion si asumimos Var(u|x 1, x 2,…, x k ) =  2 (Homocedasticidad)

Free and Quick translation of Prof. Anderson's slides21 Varianza de MCO (cont) Supongamos que x representa a (x 1, x 2,…x k ) Si Var(u|x) =  2 entonces Var(y| x) =  2 Los 4 supuestos para insesgadez, mas este de homocedasticidad son conocidos como los supuestos del teorema de Gauss-Markov

Free and Quick translation of Prof. Anderson's slides22 Varianza de MCO (cont)

Free and Quick translation of Prof. Anderson's slides23 Componentes de las varianzas de MCO La varianza del error: cuanto mas grande sea  2, mas grande es la varianza de los estimadores MCO La variacion total: cuanto mas grande sea STC mas pequeña sera la varianza de los estimadores MCO Relacion lineal entre los regresores: cuanto mas grande sea R j 2 mas grande sera la varianza de los estimadores de MCO

Free and Quick translation of Prof. Anderson's slides24 Modelos Mal-especificados

Free and Quick translation of Prof. Anderson's slides25 Modelos Mal-especificados (cont) Mientras la varianza del estimador es menor en el modelo incorrecto, al menos que  2 = 0 el modelo mal-especificado esta sesgado Cuando el tamaño muestral crece, la varianza de cada estimador va hacia zero, convirtiendo el tema de las diferencias en varianzas en algo menos importante

Free and Quick translation of Prof. Anderson's slides26 Estimando la Varianza del Error  2 es desconocida porque no observamos los errores, u i Lo que observamos son los residuos, û i Podemos usar los residuos para estimar la varianza del error

Free and Quick translation of Prof. Anderson's slides27 Estimacion de la Varianza del Error (cont) gl = n – (k + 1), o gl = n – k – 1 gl (i.e. grados de libertad) es el (numero de observaciones) – (numero de parametros estimados)

Free and Quick translation of Prof. Anderson's slides28 Teorema de Gauss-Markov Dado nuestros 5 supuestos de Gauss-Markov se puede mostrar que MCO es “ELIO” Estimador Lineal Insesgado Optimo (minima varianza) Lea esto de forma correcta: Entre todos los estimadores lineales en y, e insesgados es el estimador de minima varianza