SUPUESTOS DEL MODELO DE MINIMOS CUADRADOS

Slides:



Advertisements
Presentaciones similares
Pronósticos, Series de Tiempo y Regresión
Advertisements

MANUAL DE LABORATORIO DE CÓMPUTO ECONOMETRÍA I MULTICOLINEALIDAD
PROBLEMAS ECONOMETRICOS
Contraste de Hipotesis
ANÁLISIS ESTADÍSTICO de los RESULTADOS DEL AJUSTE
Auxiliar Pre Examen IN4402-2: Aplicaciones de Probabilidades y Estadística en Gestión Profesora: Paola Bordón T. Auxiliares: Andrés E. Fernández.
LEONARDO LÓPEZ C. ECONOMIA ESTADISTICA COMPUTARIZADA PARALELO: 261.
Tema 3: Distribuciones bidimensionales: Relación estre dos variables estadísticas Relación estadísca: Correlación Diagramas de dispersión.
PRINCIPIOS DE ESTADÍSTICAS INFERENCIALES PRUEBA DE HIPÓTESIS: MUESTRAS PEQUEÑAS.
TEMA 3: ESTADÍSTICA BIDIMENSIONAL. ÍNDICE: 1.- Relación estadística: correlación. 2.- Diagramas de dispersión o nube de puntos. 3.- Tablas de frecuencia.
ESTADÍSTICA II Ing. Danmelys Perozo MSc. Blog:
Free and Quick Translation of Anderson's slides1 Modelo de Regresión Lineal Simple y =  0 +  1 x + u.
REGRESIÓN Y CORRELACIÓN  REGRESIÓN Es un Proceso estadístico que consiste en predecir una variable a partir de otra utilizando datos anteriores. INGA.
1 Pronósticos, Series de Tiempo y Regresión Capítulo 3: Regresión Lineal Simple.
Prof. Dr. Luis Alberto Rubio Jacobo CURSO: “Estadística Aplicada al Marketing” MAESTRIA EN GERENCIA DE MARKETING.
Capitulo 3 Análisis descriptivo inferencial: comparaciones de muestras
Curso de Elaboración de Pruebas Prof. Gerardo A. Valderrama M
PRUEBA DE HIPÓTESIS: MUESTRAS PEQUEÑAS
Facultad de Ciencias Sociales
Procedimiento completo de regresión múltiple
Pedro Letelier Patricio Contreras
Continuación DE MCO.
Análisis de varianza Paramétricos vs. No Paramétricos
El modelo simple de regresión
CORRELACIÓN PARCIAL Y CORRELACIÓN SEMIPARCIAL
Introducción a los modelos econométricos
ESTADÍSTICA II Ing. Danmelys Perozo MSc.
INFERENCIA ESTADÍSTICA PARA DOS POBLACIONES
con a, b y c constantes reales y a ≠ 0.
MODELOS MULTIECUACIONALES
Regresion Multiple Varias variables explicativas
ANALISIS DE LA VARIANZA PROF. GERARDO A. VALDERRAMA M.
Temas Estimador de Efectos Fijos: utiliza una transformación para eliminar el efecto inobservable ai antes de la estimación Estimador de Efectos Aleatorios:
Correlación Lineal de Pearson y Regresión Lineal Simple
Unidad 6. Capítulo IV. Puntos ordinarios y puntos singulares.
Variables dummy Una variable dummy toma valores entre 1 y 0 Ejemplo:
DISCUSIÓN DE LA FORMA FUNCIONAL
SUPUESTOS DEL MODELO DE MINIMOS CUADRADOS
PREDICCIÓN Y ESTIMACIÓN
REGRESÍON LINEAL SIMPLE
Estimación de parámetros: Estimación puntual y por intervalos
“Formulación de Hipótesis Estadística”
Kriging Consideremos información de determinada propiedad en el yacimiento y puntos en los cuales se tiene la estimación dea partir de los puntos.
ANÁLISIS DE REGRESIÓN SIMPLE
EL EFECTO DE LA EDUCACIÓN SECUNDARIA EN EL INGRESO PER CÁPITA DEPARTAMENTAL DEL PERÚ
ESTIMACIÓN (Inferencia Estadística) Intervalos de Confianza
Modelo de regresión lineal múltiple. Estimación de parámetros. Evaluación de la recta estimada. Diagnóstico del modelo. Detección, evaluación de puntos.
ANALISIS DE VARIANZA
Unidad 4. Capítulo V. Ecuaciones homogéneas: Teoría.
Contraste de Hipotesis
ICPM050 – ECONOMETRÍA tema 03: ESTIMACIÓN MODELO LINEAL SIMPLE
Variables Artificiales
ESTADISTICA MEDIDAS DE DISPERSIÓN Cristian Gómez Coordinar Técnico Calidad Laboratorio Labsai.
Free and Quick Translation of Anderson's slides
Regresión Lineal Simple
Contraste de Hipotesis
Tipos de Ecuaciones. El signo igual El signo igual se utiliza en: El signo igual se utiliza en: Igualdades numéricas: Igualdades numéricas: = 5.
Modelo de Regresión Lineal Simple
Contraste de Hipotesis
Qucik and Free Translation of Anderson's slides
Analisis de Regresion Multiple
MEDIDAS DE DISPERSIÓN “Medidas de dispersión”. Miden qué tanto se dispersan las observaciones alrededor de su media. MEDIDAS DE DISPERSIÓN.
Qucik and Free Translation of Anderson's slides
ANÁLISIS DE REGRESIÓN LINEAL Y CORRELACIÓN SIMPLE ANÁLISIS DE REGRESIÓN LINEAL Y CORRELACIÓN SIMPLE 1 1.
ANALISIS DE REGRESION SIMPLE
TRATAMIENTO Y EVALUACION DE RESULTADOS ANALITICOS 1.Conceptos generales sobre la medida. Tipos de errores, concepto, componentes, corrección. Distribución.
ESTADÍSTICA APLICADA  ZEUS DE JESÚS RODRÍGUEZ BUDA  GABRIELA MÁRQUEZ TORRES  MARÍA ENRIQUETA GIL CÓRDOVA  ELIÁN ANTONIO GONZALEZ GARCÍA  CRISTELL.
REGRESION LINEAL SIMPLE
VARIANZA Y Y COVARIANZA DE VARIABLES ALEATORIAS Estadística II MI. MARTHA PAMELA RAMÍREZ VELA ITESM CAMPUS SALTILLO 1.
Transcripción de la presentación:

SUPUESTOS DEL MODELO DE MINIMOS CUADRADOS El modelo de MCO supone: 1. Los estimadores tienen una media y una varianza que no está relacionada con los errores del modelo. 2. Las variables independientes no tienen ninguna relación entre si 3. Los errores de la estimación tienen una distribución normal con media cero y una varianza constante.

PRUEBAS DE DIAGNOSTICO Tienen la intención de verificar el cumplimiento de los supuestos Estas pruebas están en el contexto de las pruebas de Fisher Sólo se plantea la hipótesis nula: se cumple con el supuesto

Klein y Goldberg (1955) analizan la relación entre el consumo (c), los salarios (w) otros ingresos que no provienen de los salarios (p) y el ingreso agrícola (a) para los años de 1928 a 1950. Sus resultados fueron: Ct = 8.13 + 1.059wt + 0.452pt + 0.12at 8.92 0.17 0.66 1.09 (error estándar) 0.91 6.10 0.69 0.11 (valor de t) R2 = 0.95 F= 107.37 F tablas 5.29 Aunque la R2 es alta y también la F sólo una variable estadísticamente distinta de cero Los autores concluyen que no es posible analizar los efectos en el consumo que provienen de los distintos tipos de ingresos porque éstos se encuentran de alguna manera relacionados entre si.

MULTICOLINEALIDAD PERFECTA Se dice que existe multicolinealidad perfecta cuando las variables independientes son linealmente dependientes entre si por ejemplo X2 = X3 + 2X4 El primer efecto de esta situación es que no sería posible invertir la matriz (X´X)-1 y sería evidente el problema. Sin embargo es raro que se presente la multicolinealidad perfecta lo más probable es que la relación entre las variables sea aproximada pero no necesariamente perfecta.

CONSECUENCIAS DE LA MULTICOLINEALIDAD 1. Cuando existe cierta dependencia entre las variables algunos elementos de la matriz (X´X)-1 son muy grandes. Como la matriz de covarianzas se calcula s2 (X´X)-1 entonces las varianzas, los errores estándar y las covarianzas pueden ser muy grandes. La variación entonces es muy amplia, los intervalos de confianza muy amplios y por tanto la información que proviene del modelo puede ser muy imprecisa. 2. Si los errores estándar son muy grandes entonces se llega a la conclusión de que los coeficientes estimados no son estadísticamente distintos de cero (t muy chicas) a pesar de que el modelo tiene R2 y F altas. Esto quiere decir que las variables no están aportando suficiente información para estimar los efectos por separad

3. Los coeficientes estimados pueden ser muy sensibles cuando se agregan o quitan estimaciones o cuando se elimina una variable que aparentemente no es importante.

IDENTIFICANDO EL PROBLEMA DE LA MULTICOLINEALIDAD Calcular la correlación entre las variables una correlación mayor de 0.8 o 0.9 entre dos variables puede ser un indicador de una relación entre ellas. Calcular regresiones auxiliares cada una de las variables independientes en función del resto Por ejemplo Xk = b1X1 + b2 X2 +.........bk-1Xk-1 + v Si la R2 es alta es posible la presencia de multicolinealidad

Variance inflation factor (VIF) Se pueden calcular una diferente VIF, para cada variable independiente. Calcular regresiones auxiliares cada una de las variables independientes en función del resto. Por ejemplo Xk = b1X1 + b2 X2 +.........bk-1Xk-1 + v

Se calcula el factor VIF con R² para cada regresión auxiliar Si VIF es mayor de 10 hay multicolinealidad

La tolerancia definida como 1/VIF, se usa como una medida de la colinealidad. Un valor de tolerancia menor que 0.1 se compara con un VIF de 10. Esto significa que se puede considerar a esta variable como una combinación lineal de las otras variables independientes.

SOLUCIONES Un problema de la multicolinealidad es que no tiene suficiente información en cuando a los efectos individuales de las variables por tanto una posible solución es obtener más información e incluirla. No siempre es posible en las variables económicas. Eliminar alguna de las variables que son linealmente dependientes entre si Transformar las variables dividiendo todas las variables por la que se sospecha es la causa de la muticolinealidad

Ejemplo cars.dta regress mpg eng cyl wgt test eng cyl Regresiones auxiliares regress cyl eng wgt Guardar las R2 para comparar scalar r1= e(r2) regress eng wgt cyl scalar r2= e(r2) regress wgt eng cyl scalar r3= e(r2) scalar list r1 r2 r3 di 1/(1-.90490236)

regress mpg eng cyl wgt Hacer la prueba con el comando vif display (1/(1-.9044))

Otro ejemplo Empleamos la base de datos “elemapi2.dta”, que contiene información sobre el desempeño académico de la educación básica en Estados Unidos. Vamos a demostrar que el desempeño académico (api00) está en función del porcentaje de alumnos que recibe desayunos gratuitos (meals), están aprendiendo ingles (ell) y del porcentaje de maestros con credenciales nuevas.

regress api00 meals ell emer Calculamos el factor de inflación de la varianza vif En este caso el VIF fue bastante bueno, sin embargo analicemos un caso con un VIF preocupante.

Qué sucede si aumentamos variables? regress api00 acs_k3 avg_ed grad_sch col_grad some_col vif En este caso hay multicolinealidad porque avg_ed, grad_sch y col_grad están correlacionadas. Estas variables son redundantes, ya que si sabemos el grado de estudios de los padres (grad_sch) y el número de padres con grado universitario (col_grad) es posible obtener el promedio de estudios de los padres (avg_ed).

Un comando alternativo para la colinearidad es “collin”, este comando puede ser ejecutado sin necesidad de realizar una regresión; solo se requieren las variables independientes para este comando. Si su versión de STATA no cuenta con el comando “collin”, puede descargarlo del internet con el comando “findit collin”

De la matriz de las X Sea Y = AX Un Eigenvector. Es un vector distinto de cero tal que AX = λX donde λ es un escalar llamado eigenvalue. Stata nos da el valor de los eigenvalue

Grandes valores de los eigenvalues indican no correlación entre las variables Un eigenvalue igual a cero implica perfecta collinealidad entre las variables independientes Pequeños valores de los eigenvalues implican multicolinealidad El problema que es pequeño o grande? Stata calcula el índice condicional

Condition index Es la raíz cuadrada de la razón entre el valor del más alto eigenvalue y cada uno de los eigenvalues. La regla Condition index mayores a 10 indican multicolinealidad

coldiag2 acs_k3 avg_ed grad_sch col_grad some_col En este caso la multicolinealidad surgió debido a que incorporamos muchas variables que miden la misma cosa, la educación de los padres por ejemplo.

Aplicando la solución de retirar variables explicativas; en este caso retiramos la variable avg_ed, regress api00 acs_k3 grad_sch col_grad some_col vif Es posible ver una mejora en el VIF Debido a que se redujo para las variables sobre la educación de los padres (grad_sch col_grad) La colinearidad estaba “inflando” a los errores estándar, incluso grad_sch no era significativa y ahora lo es.