Analisis de Regresion Multiple

Slides:



Advertisements
Presentaciones similares
División de Estudios Políticos, CIDE
Advertisements

Modelo de regresión con dos variables: Estimación
Definición del Modelo de Regresión Simple Estimaciones por MCO Método de MCO Valores Esperados y Varianzas por MCO.
Maestría en Transporte Regresamos... (el problema de la regresión lineal) Clase 5.
Modelos de regresión lineal
Free and Quick Translation of Anderson's slides
Free and Quick Translation of Anderson's slides1 Analisis de Regresion Multiple y =  0 +  1 x 1 +  2 x  k x k + u 4. Mas Aspectos de este Modelo.
Free and Quick translation of Prof. Anderson's slides1 Analisis de Regresion Multiple y =  0 +  1 x 1 +  2 x  k x k + u 1. Estimacion.
Bioestadistica II 2014 FACULTAD DE CIENCIAS EXACTAS, FÍSICAS Y NATURALES. UNIVERSIDAD NACIONAL DE CÓRDOBA.
Contraste de Hipotesis
LEONARDO LÓPEZ C. ECONOMIA ESTADISTICA COMPUTARIZADA PARALELO: 261.
Free and Quick Translation of Anderson´s slides1 Analisis de Regresión Multiple y =  0 +  1 x 1 +  2 x  k x k + u 2. Inferencia.
TEMA 3: Estadística Bidimensional. ● Álvaro Fernández Romero y Luis Carlos Fernández herrezuelo.
Free and Quick Translation of Anderson's slides1 Modelo de Regresión Lineal Simple y =  0 +  1 x + u.
REGRESIÓN Y CORRELACIÓN  REGRESIÓN Es un Proceso estadístico que consiste en predecir una variable a partir de otra utilizando datos anteriores. INGA.
1 Pronósticos, Series de Tiempo y Regresión Capítulo 3: Regresión Lineal Simple.
Ing. VITELIO ASENCIOS TARAZONA. Dentro de los modelos causales o asociativos encontramos el análisis de regresión o regresión lineal, que es un método.
Instituto Nacional de Estadística y Geografía
Procedimiento completo de regresión múltiple
Continuación DE MCO.
MEP- II.
El modelo simple de regresión
Introducción a los modelos econométricos
ESTADÍSTICA II Ing. Danmelys Perozo MSc.
Regresion Multiple Varias variables explicativas
¿Cuándo usar esta distribución?
ANALISIS DE LA VARIANZA PROF. GERARDO A. VALDERRAMA M.
Temas Estimador de Efectos Fijos: utiliza una transformación para eliminar el efecto inobservable ai antes de la estimación Estimador de Efectos Aleatorios:
Analisis de Regresion Multiple
Analisis de Regresion Para dos Variables (poblacion y muestra)
DISTRIBUCIÓN GAMMA. La distribución gamma se deriva de la función gamma. La distribución gamma tiene un caso especial que es la distribución exponencial.
PREDICCIÓN Y ESTIMACIÓN
REGRESÍON LINEAL SIMPLE
Estimación de parámetros: Estimación puntual y por intervalos
ECONOMETRIA I 3. MODELO LINEAL DE TRES VARIABLES
REGRESIÓN LINEAL SIMPLE
Propiedades de los estimadores MCO
Kriging Consideremos información de determinada propiedad en el yacimiento y puntos en los cuales se tiene la estimación dea partir de los puntos.
ANÁLISIS DE REGRESIÓN SIMPLE
ESTIMACIÓN (Inferencia Estadística) Intervalos de Confianza
Modelo de regresión lineal múltiple. Estimación de parámetros. Evaluación de la recta estimada. Diagnóstico del modelo. Detección, evaluación de puntos.
Análisis de Regresión Lineal Curso de Verano ENCUP: Introducción al análisis cuantitativo en ciencias sociales Javier Aparicio División de Estudios Políticos,
ANALISIS DE VARIANZA
Regresión Lineal Simple Capitulo 17. Los temas Regresión Lineal Comparando ecuaciones lineales Bondad de ajuste (Chi square) Tabla de contingencia The.
Tema 1- Regresión lineal simple.
Correlación Relación no lineal Relación lineal positiva Relación
PARA LA REGRESIÓN LINEAL SIMPLE
Propiedades de los estimadores MCO
Analisis de Regresion Para dos Variables.
Contraste de Hipotesis
Ecuación Explícita de la Recta
ICPM050 – ECONOMETRÍA tema 03: ESTIMACIÓN MODELO LINEAL SIMPLE
Analisis de Regresion Para dos Variables.
Correlación Relación no lineal Relación lineal positiva Relación
Free and Quick Translation of Anderson's slides
Analisis de Regresion Multiple
Regresión Lineal Simple
Intervalos de confianza Muestras pequeñas
Contraste de Hipotesis
Modelo de Regresión Lineal Simple
MODELOS DE PRONOSTICOS
Contraste de Hipotesis
Analisis de Regresion Para dos Variables (poblacion y muestra)
Qucik and Free Translation of Anderson's slides
Free and Quick Translation of Anderson's slides
Qucik and Free Translation of Anderson's slides
ANALISIS DE REGRESION SIMPLE
ESTADÍSTICA APLICADA  ZEUS DE JESÚS RODRÍGUEZ BUDA  GABRIELA MÁRQUEZ TORRES  MARÍA ENRIQUETA GIL CÓRDOVA  ELIÁN ANTONIO GONZALEZ GARCÍA  CRISTELL.
REGRESION LINEAL SIMPLE
Transcripción de la presentación:

Analisis de Regresion Multiple y = b0 + b1x1 + b2x2 + . . . bkxk + u 1. Estimacion Free and Quick translation of Prof. Anderson's slides

Similitudes con la regresion simple b0 es todavia la constante b1 a bk son llamados pendientes u es todavia el termino error Seguimos necesitando suponer que cierta esperanza condicional es zero, asi ahora asumimos que E(u|x1,x2, …,xk) = 0 Todavia minimizamos la suma de residuos al cuadrado, asi tenemos k+1 condiciones de primer orden Free and Quick translation of Prof. Anderson's slides

Interpretando el modelo de regresion multiple Free and Quick translation of Prof. Anderson's slides

Interpretacion via regresion particionada Free and Quick translation of Prof. Anderson's slides

Regresion particionada, cont La ecuacion previa implica que regresar y sobre x1 y x2 produce el mismo efecto de x1 como regresar y sobre los residuos de la regresion de x1 sobre x2 Esto significa que solo la parte de xi1 que esta incorrelacionada con xi2 esta siendo relacionada con yi es decir, estamos estimando el fecto de x1 sobre y despues de haber sacado fuera x2 Free and Quick translation of Prof. Anderson's slides

Free and Quick translation of Prof. Anderson's slides Simple vs Reg Multiple Free and Quick translation of Prof. Anderson's slides

Free and Quick translation of Prof. Anderson's slides Bondad del Ajuste Free and Quick translation of Prof. Anderson's slides

Free and Quick translation of Prof. Anderson's slides Bondad del Ajuste (cont) Como decidimos si el ajuste realizado por la recta de regresion lineal a los datos muestrales es bueno o malo? Podemos calcular la fraccion de la suma total de cuadrados (SCT) que es explicada por el modelo y llamar a esto el R-cuadrado de la regresion R2 = SCE/SCT = 1 – SCE/SCT Free and Quick translation of Prof. Anderson's slides

Bondad de Ajuste (cont) Free and Quick translation of Prof. Anderson's slides

Free and Quick translation of Prof. Anderson's slides Mas sobre el R2 R2 no puede decrecer cuando se inlcuye otra variable independiente en la regresion, y generalmente aumentara Debido a que R2 generalmente aumentara con el numero de variables independientes, no es una buena medida para comparar modelos Free and Quick translation of Prof. Anderson's slides

Free and Quick translation of Prof. Anderson's slides Supuestos para Insesgadez Modelo poblacional es lineal en los parametros: y = b0 + b1x1 + b2x2 +…+ bkxk + u Podemos usar una muestra aleatoria de tamaño n, {(xi1, xi2,…, xik, yi): i=1, 2, …, n}, del modelo poblacional, tal que el modelo muestral es yi = b0 + b1xi1 + b2xi2 +…+ bkxik + ui E(u|x1, x2,… xk) = 0, implicando que todas las variables explicativas son exogenas Ninguna de las x’s es constante, y no hay una relacion lineal exacta entre ellas Free and Quick translation of Prof. Anderson's slides

Muchas o Pocas Variables Que pasa si introducimos variables en nuestra especificacion que no pertenecen a ella? No hay efecto sobre nuestro parametro estimado, y MCO sigue siendo insesgado Y si excluimos una variable de nuestra especificacion a la que pertenece? MCO sera sesgado Free and Quick translation of Prof. Anderson's slides

Sesgo de Variable Omitida Free and Quick translation of Prof. Anderson's slides

Sesgo de Variable Omitida (cont) Free and Quick translation of Prof. Anderson's slides

Sesgo de Variable Omitida (cont) Free and Quick translation of Prof. Anderson's slides

Sesgo de Variable Omitida (cont) Free and Quick translation of Prof. Anderson's slides

Resumen de la Direccion del Sesgo Corr(x1, x2) > 0 Corr(x1, x2) < 0 b2 > 0 Sesgo Positivo Sesgo Negativo b2 < 0 Free and Quick translation of Prof. Anderson's slides

Resumen del Sesgo de Variable Omitida Dos casos donde el sesgo es zero b2 = 0, es decir x2 no pertenece al modelo x1 y x2 estan incorrelacionadas en la muestra Si la correlacion entre (x2 , x1) y (x2 , y) va en la misma direccion, el sesgo sera positivo Si la correlacion entre (x2 , x1 ) y (x2 , y) va en direccion opuesta, el sesgo sera negativo Free and Quick translation of Prof. Anderson's slides

Free and Quick translation of Prof. Anderson's slides El Caso mas General Tecnicamente solo podemos aignarle un signo al sesgo en el caso mas general si todas las variables x’s estan incorrelacionadas Tipicamente analizaremos el sesgo asumiendo que x’s estan incorrelacionadas como una guia util aunque este supuesto no sea cierto Free and Quick translation of Prof. Anderson's slides

Free and Quick translation of Prof. Anderson's slides Varianza de los Estimadores MCO Ahora ya sabemos que la distribucion muestral de nuestro estimador esta centrada alrededor del verdadero valor del parametro Como es esa distribucion? Mas facil pensar sobre la varianza de la distribucion si asumimos Var(u|x1, x2,…, xk) = s2 (Homocedasticidad) Free and Quick translation of Prof. Anderson's slides

Free and Quick translation of Prof. Anderson's slides Varianza de MCO (cont) Supongamos que x representa a (x1, x2,…xk) Si Var(u|x) = s2 entonces Var(y| x) = s2 Los 4 supuestos para insesgadez, mas este de homocedasticidad son conocidos como los supuestos del teorema de Gauss-Markov Free and Quick translation of Prof. Anderson's slides

Free and Quick translation of Prof. Anderson's slides Varianza de MCO (cont) Free and Quick translation of Prof. Anderson's slides

Componentes de las varianzas de MCO La varianza del error: cuanto mas grande sea s2 , mas grande es la varianza de los estimadores MCO La variacion total: cuanto mas grande sea STC mas pequeña sera la varianza de los estimadores MCO Relacion lineal entre los regresores: cuanto mas grande sea Rj2 mas grande sera la varianza de los estimadores de MCO Free and Quick translation of Prof. Anderson's slides

Modelos Mal-especificados Free and Quick translation of Prof. Anderson's slides

Modelos Mal-especificados (cont) Mientras la varianza del estimador es menor en el modelo incorrecto, al menos que b2 = 0 el modelo mal-especificado esta sesgado Cuando el tamaño muestral crece, la varianza de cada estimador va hacia zero, convirtiendo el tema de las diferencias en varianzas en algo menos importante Free and Quick translation of Prof. Anderson's slides

Free and Quick translation of Prof. Anderson's slides Estimando la Varianza del Error s2 es desconocida porque no observamos los errores, ui Lo que observamos son los residuos, ûi Podemos usar los residuos para estimar la varianza del error Free and Quick translation of Prof. Anderson's slides

Estimacion de la Varianza del Error (cont) gl = n – (k + 1), o gl = n – k – 1 gl (i.e. grados de libertad) es el (numero de observaciones) – (numero de parametros estimados) Free and Quick translation of Prof. Anderson's slides

Teorema de Gauss-Markov Dado nuestros 5 supuestos de Gauss-Markov se puede mostrar que MCO es “ELIO” Estimador Lineal Insesgado Optimo (minima varianza) Lea esto de forma correcta: Entre todos los estimadores lineales en y, e insesgados es el estimador de minima varianza Free and Quick translation of Prof. Anderson's slides