RELACIÓN GRÁFICA EN UN MODELO DE REGRESIÓN MULTIPLE. reg EARNINGS S EXP Source | SS df MS Number of obs = 540 -------------+------------------------------

Slides:



Advertisements
Presentaciones similares
DISEÑO DE EXPERIMENTOS EXPERIMENTOS DE COMPARACIÓN SIMPLE
Advertisements

INTERPRETACIÓN DE LA ECUACIÓN DE REGRESIÓN
Regresión lineal simple
Error Estándar de la Media
ESTRATEGIAS Y DISEÑOS AVANZADOS DE INVESTIGACIÓN SOCIAL
ERROR ESTÁNDAR CONSISTENTE BAJO HETEROSCEDASTICIDAD
Pronósticos, Series de Tiempo y Regresión
Ingeniería Industrial II CicloEducativo 2011
ESTRATEGIAS Y DISEÑOS AVANZADOS DE INVESTIGACIÓN SOCIAL
MODELOS DE ELECCIÓN BINARIA: MODELO DE PROBABILIDAD LINEAL
Regresión y correlación
بسم الله الرحمن الرحيم.
Tema 1- Regresión lineal simple.
Regresión lineal Es un modelo matemático para predecir el efecto de una variable sobre otra, ambas cuantitativas. Una variable es la dependiente y otra.
Regresión Lineal Simple
Curso de Estadística Básica
9 Regresión Lineal Simple
Regresión y Correlación
Análisis de Correlación y de Regresión lineal simple
LEAN SIGMA – FASE DE ANÁLISIS Propósito y herramientas 1.
REGRESION LINEAL En la búsqueda de mejoras o en la solución de problemas es necesario, frecuentemente, investigar la relación entre factores (o variables).
UNIVERSIDAD AUTONOMA DEL PERÚ
Control estadístico de Proceso
Regresión Lineal Múltiple
MODELOS DE ELECCIÓN BINARIA: ANÁLISIS LOGIT
TIPOS DE MODELOS DE REGRESIÓN Y SUPUESTOS PARA EL MODELO A
MODELOS DE ELECCIÓN BINARIA : ANÁLISIS PROBIT
Curso de Bioestadística. ANOVA
Pronósticos, Series de Tiempo y Regresión
1 INTERPRETACIÓN DE UNA ECUACIÓN DE REGRESIÓN El diagrama muestra el ingreso por hora en 2002 graficado contra los años de educación, definido como el.
Modelo de regresión simple: Y =  1 +  2 X + u 1 Hemos visto que los coeficientes de regresión b 1 y b 2 son variables aleatorias. Estos, respectivamente,
Modelo de regresión simple: Y =  1 +  2 X + u Ahora, demostraremos que el estimador ordinario de mínimos cuadrados (OLS) del coeficiente de la pendiente.
DERIVADO DE LOS COEFICIENTES DE REGRESIÓN LINEAL Y X Esta sequencia muestra cómo los coeficientes de regresión para un modelo de regresión lineal simple.
ESTIMACIÓN DE COEFICIENTES DE MÁXIMA VEROSIMILITUD
LOS COMPONENTES ALEATORIOS DE LOS COEFICIENTES DE REGRESIÓN
Laboratorio de Estadística administrativa
Titular: Agustín Salvia
Introducción a la estadística Algunas definiciones de estadística
Píldora de evaluación estadística de ajuste de curvas Files con las tablas: T_tables.pdf F_tables.pdf Descargadas desde
CORRELACION Y REGRESION LINEAL: Introducción
LA RECTA DE REGRESIÓN CONTENIDOS:
LA PRUEBA F DE BONDAD DE AJUSTE 2 Vamos a considerar el caso general donde hay k – 1 variables explicativas. Para la prueba F de bondad de ajuste de la.
Herramientas básicas.
Profesores: Walter Sosa Escudero Mariana Marchionni Asistentes: María Edo Camila Navajas.
Límites y Continuidad.
CURSO: ESTADISTICA DESCRIPTIVA Y PROBABILIDADES
CO-2124 Análisis de Varianza con Un Criterio de Clasificación En clases anteriores se deseaba determinar si existían diferencias entre las medias de dos.
Herramientas avanzadas. Lo primero: abrir el modelo.
REGRESIÓN MULTIPLE CON DOS VARIABLES EXPLICATIVAS: EJEMPLO INGRESO EXP S 11 1 INGRESO =  1 +  2 S +  3 EXP + u Esta presentación proporciona una interpretación.
1 Y MODELO DE REGRESIÓN SIMPLE Suponemos que una variable Y es una función lineal de otra variable X, con parámetros desconocidos  1 y  2 que queremos.
Estimación Diferencia de dos medias
PARA LA REGRESIÓN LINEAL SIMPLE
Análisis de los Datos Cuantitativos
Regresión Lineal Simple
ESTIMACIÓN DE PARÁMETROS
Regresión lineal simple Nazira Calleja
Unidad 4 Análisis de los Datos.
TEMA : ANALISIS DE REGRESION
Supuestos en el análisis de regresión Miles, J. & Shervin, M. (2011). Applyng regression & correlation. A guide for students and researchers. London: Sage.
Análisis de Varianza ANOVA Capitulo 10. Multiples grupos Ha: Por lo menos uno de los grupos no es igual a lo demás.
EPE MA 148 ESTADÍSTICA INFERENCIAL TEMA:
Germán Fromm R. 1. Objetivo Entender los diseños metodológicos predictivos 2.
Informe evolutivo sobre resultados en la Prueba de Evaluación ESCALA 2014 / 15.
REGRESIÓN LINEAL SIMPLE
RELACIÓN ENTRE UNA VARIABLE DEPENDIENTE Y UNA O MAS INDEPENDIENTES.
REGRESIÓN LINEAL SIMPLE TEMA INTRODUCCIÓN Determinar la ecuación de regresión sirve para: – Describir de manera concisa la relación entre variables.
Intervalos de Confianza M. C. José Juan Rincón Pasaye UMSNH – FIE Mayo de 2003.
M.E. ADA PAULINA MORA GONZALEZ. Esta parte describe las técnicas para ajustar curvas en base a datos para estimaciones intermedias. Una manera de hacerlo.
Análisis de Regresión. Introducción Importancia Principal Aplicación: Determinación relación Y = F(X 1, X 2,... X n )
RELACIÓN GRÁFICA EN UN MODELO DE REGRESIÓN MULTIPLE
Transcripción de la presentación:

RELACIÓN GRÁFICA EN UN MODELO DE REGRESIÓN MULTIPLE. reg EARNINGS S EXP Source | SS df MS Number of obs = F( 2, 537) = Model | Prob > F = Residual | R-squared = Adj R-squared = Total | Root MSE = EARNINGS | Coef. Std. Err. t P>|t| [95% Conf. Interval] S | EXP | _cons | La tabla de arriba muestra el resultado de una regresión de INGRESO, ingreso por hora en dólares, explicado por S, años de educación, y EXP, años de experiencia laboral. 1

2 Suponemos que nos interesa en particular la relación entre INGRESO y S, y deseamos representarla graficamente utilizando la muestra de datos.

3 Una línea simple sería engañosa.

4 Los años de educación están correlacioandos negativamente con la experiencia laboral. La línea no toma en cuenta esta relación, por lo que la línea de regresión subestima el impacto de los años de educación en el ingreso.. cor S EXP (obs=540) | S ASVABC S| EXP|

5. cor S EXP (obs=540) | S ASVABC S| EXP| Investigaremos gráficamente la distorsión de una regresión cuando se omiten variables relevantes (omitted variable bias).

6. cor S EXP (obs=540) | S ASVABC S| EXP| Para eliminar la distorsión, tenemos que descontar el componentes de INGRESOS y EDUCACION (S) que están relacionados con EXP, y después hacemos un diagrama de dispersión usando las variables “depuradas”.

. reg EARNINGS EXP Source | SS df MS Number of obs = F( 1, 538) = 2.98 Model | Prob > F = Residual | R-squared = Adj R-squared = Total | Root MSE = EARNINGS | Coef. Std. Err. t P>|t| [95% Conf. Interval] EXP | _cons | predict EEARN, resid 7 Comenzamos haciendo una regresión de INGRESO sobre EXP, como se muestra arriba. Los residuales son la parte del INGRESO que no está relacionada con EXP. El comando ‘predict’ en Stata es el comando para guardar los residuales de la regresión más reciente— los cuales llamamos EEARN.

. reg S EXP Source | SS df MS Number of obs = F( 1, 538) = Model | Prob > F = Residual | R-squared = Adj R-squared = Total | Root MSE = S | Coef. Std. Err. t P>|t| [95% Conf. Interval] EXP | _cons | predict ES, resid 8 Realizamos lo mismo con S. Estimamos una regresión de S sobre EXP y guardamos los residuales en ES. ES contiene la información de educación que no está relacionada con o explicada por EXP.

9 Al graficar el diagrama de dispersión de EEARN contra ES tenemos una representación más fidedigna de la relación entre ambas variables. Esto, tanto en términos de la pendiente de la línea de tendencia “correcta” (en color negro), como en términos de la variación en torno a esa línea.

10 Como esperábamos, la línea de tendencia es más inclinada que aquella en la que no controlamos por EXP (mostrada en rojo).

. reg EEARN ES Source | SS df MS Number of obs = F( 1, 538) = Model | Prob > F = Residual | R-squared = Adj R-squared = Total | Root MSE = EEARN | Coef. Std. Err. t P>|t| [95% Conf. Interval] ES | _cons | 8.10e From multiple regression:. reg EARNINGS S EXP EARNINGS | Coef. Std. Err. t P>|t| [95% Conf. Interval] S | EXP | _cons | Esta es la regresión de EEARN con ES.

. reg EEARN ES Source | SS df MS Number of obs = F( 1, 538) = Model | Prob > F = Residual | R-squared = Adj R-squared = Total | Root MSE = EEARN | Coef. Std. Err. t P>|t| [95% Conf. Interval] ES | _cons | 8.10e De la regresión múltiple:. reg EARNINGS S EXP EARNINGS | Coef. Std. Err. t P>|t| [95% Conf. Interval] S | EXP | _cons | Una comprobación matemática de que la técnica funciona requiere algebra matricial. Nos limitaremos a verificar que el coeficiente estimado arriba es igual al de una regresión multiple.

. reg EEARN ES Source | SS df MS Number of obs = F( 1, 538) = Model | Prob > F = Residual | R-squared = Adj R-squared = Total | Root MSE = EEARN | Coef. Std. Err. t P>|t| [95% Conf. Interval] ES | _cons | 8.10e De la regresión múltiple:. reg EARNINGS S EXP EARNINGS | Coef. Std. Err. t P>|t| [95% Conf. Interval] S | EXP | _cons | Finalmente, un pequeño detalle técnico. Talvez notaron que el error estándar y el estadístico t no concuerdan. La razón de esto es que los residuales de la regresión están sobreestimados en un grado de libertad.

. reg EEARN ES Source | SS df MS Number of obs = F( 1, 538) = Model | Prob > F = Residual | R-squared = Adj R-squared = Total | Root MSE = EEARN | Coef. Std. Err. t P>|t| [95% Conf. Interval] ES | _cons | 8.10e De la regresión múltiple:. reg EARNINGS S EXP EARNINGS | Coef. Std. Err. t P>|t| [95% Conf. Interval] S | EXP | _cons | Esa regresión no ha tomado en cuenta el hecho de que hemos usado 1 grado de libertad al eliminar EXP del modelo de arriba.

Copyright Christopher Dougherty 1999–2006. This slideshow may be freely copied for personal use