SUPUESTOS DEL MODELO DE MINIMOS CUADRADOS

Slides:



Advertisements
Presentaciones similares
MANUAL DE LABORATORIO DE CÓMPUTO ECONOMETRÍA I MULTICOLINEALIDAD
Advertisements

PROBLEMAS ECONOMETRICOS
PRONOSTICOS CON REGRESION LINEAL MULTIPLE En la regresión lineal simple se investiga la relación entre una variable independiente y otra dependiente. A.
Auxiliar Pre Examen IN4402-2: Aplicaciones de Probabilidades y Estadística en Gestión Profesora: Paola Bordón T. Auxiliares: Andrés E. Fernández.
LEONARDO LÓPEZ C. ECONOMIA ESTADISTICA COMPUTARIZADA PARALELO: 261.
ESTADÍSTICAS DESCRIPTIVAS TEORÍA DE LA CORRELACIÓN Psic. Gerardo A. Valderrama M.
TEMA 3. ESTADÍSTICA BIDIMENSIONAL. INDICE 1.- Relación estadística: correlación 2.- Diagramas de dispersión o nube de puntos 3.- Tablas de frecuencia.
TEMA 3: ESTADÍSTICA BIDIMENSIONAL. ÍNDICE: 1.- Relación estadística: correlación. 2.- Diagramas de dispersión o nube de puntos. 3.- Tablas de frecuencia.
Free and Quick Translation of Anderson's slides1 Modelo de Regresión Lineal Simple y =  0 +  1 x + u.
República Bolivariana de Venezuela Instituto Universitario Politécnico “Santiago Mariño" Estadísticas I - OV Estadística Profesor : Bachiller: Pedro Beltrán.
REGRESIÓN Y CORRELACIÓN  REGRESIÓN Es un Proceso estadístico que consiste en predecir una variable a partir de otra utilizando datos anteriores. INGA.
1 Pronósticos, Series de Tiempo y Regresión Capítulo 3: Regresión Lineal Simple.
METODOS ECONOMETRICOS Datos de Panel Introducción a Efectos Fijos Efectos Aleatorios Daniel Lema.
Distribuciones bidimensionales: Relación entre dos variables estadísticas Tema 3:
DISTRIBUCION F DE FISHER.
Facultad de Ciencias Sociales
Procedimiento completo de regresión múltiple
Continuación DE MCO.
TEMA 3: Distribuciones bidimensionales: relación entre dos variables estadísticas. Cristhian Lopez.
Inferencia estadística.
El modelo simple de regresión
Introducción a los modelos econométricos
Regresion Multiple Varias variables explicativas
DISEÑOS EXPERIMENTALES DE INVESTIGACION
Temas Estimador de Efectos Fijos: utiliza una transformación para eliminar el efecto inobservable ai antes de la estimación Estimador de Efectos Aleatorios:
Variables dummy Una variable dummy toma valores entre 1 y 0 Ejemplo:
DISCUSIÓN DE LA FORMA FUNCIONAL
SUPUESTOS DEL MODELO DE MINIMOS CUADRADOS
CORRELACIÓN CAP 8 DE Peña y Romo.
REGRESÍON LINEAL SIMPLE
REGRESIÓN LINEAL SIMPLE
¿Son nuestros resultados suficientemente confiables para dar soporte a nuestra hipótesis? ¿Podemos rechazar la hipótesis nula?
DISTRIBUCIÓN MUESTRAL DE UNA MEDIA.
PROBABILIDAD Y ESTADÍSTICA
Intervalos de confianza Muestras pequeñas
Más allá de la regresión lineal de medias
Modelo de regresión lineal múltiple. Estimación de parámetros. Evaluación de la recta estimada. Diagnóstico del modelo. Detección, evaluación de puntos.
ANALISIS DE VARIANZA
DISEÑO Y ANALISIS DE EXPERIMENTOS
DISEÑO Y ANALISIS DE EXPERIMENTOS
Universidad Nacional del Litoral
Estadística Administrativa II
REGRESION LINEAL SIMPLE
REGRESIÓN LINEAL SIMPLE
PARA LA REGRESIÓN LINEAL SIMPLE
Contraste de Hipotesis
Sea la ecuación diferencial lineal de orden “n” y de coeficientes variables
Dr. Carlomagno Araya Alpízar
ICPM050 – ECONOMETRÍA tema 03: ESTIMACIÓN MODELO LINEAL SIMPLE
Dr. Alejandro Salazar – El Colegio de Sonora
REGRESION LOGISTICA (Logit).
Contraste de Hipotesis
Tipos de Ecuaciones. El signo igual El signo igual se utiliza en: El signo igual se utiliza en: Igualdades numéricas: Igualdades numéricas: = 5.
DISEÑO Y ANALISIS DE EXPERIMENTOS
“Medidas de dispersión”
PROBABILIDAD Y ESTADISTICA
MODELOS DE PRONOSTICOS
Contraste de Hipotesis
Regresión Logística App4stats © Todos los derechos reservados.
EJEMPLO PARA ACTIVIDADES SOBRE VALIDEZ Validez: Evaluación empírica.
Analisis de Regresion Multiple
ANÁLISIS DE REGRESIÓN LINEAL Y CORRELACIÓN SIMPLE ANÁLISIS DE REGRESIÓN LINEAL Y CORRELACIÓN SIMPLE 1 1.
METODOLOGÍA Y TÉCNICAS DE INVESTIGACIÓN EN CIENCIAS SOCIALES
ANALISIS DE REGRESION SIMPLE
ANALISIS DE REGRESION MULTIPLE
DISEÑO Y ANALISIS DE EXPERIMENTOS
REGRESION LINEAL SIMPLE
REGRESION LINEAL SIMPLE
UNIDAD EDUCATIVA “MARIANO PICON SALAS REGRESION LINEAL SIMPLE
Transcripción de la presentación:

SUPUESTOS DEL MODELO DE MINIMOS CUADRADOS El modelo de MCO supone: 1. Los estimadores tienen una media y una varianza que no está relacionada con los errores del modelo. 2. Las variables independientes no tienen ninguna relación entre si 3. Los errores de la estimación tienen una distribución normal con media cero y una varianza constante.

PRUEBAS DE DIAGNOSTICO Tienen la intención de verificar el cumplimiento de los supuestos Estas pruebas están en el contexto de las pruebas de Fisher Sólo se plantea la hipótesis nula: se cumple con el supuesto

Klein y Goldberg (1955) analizan la relación entre el consumo (c), los salarios (w) otros ingresos que no provienen de los salarios (p) y el ingreso agrícola (a) para los años de 1928 a 1950. Sus resultados fueron: Ct = 8.13 + 1.059wt + 0.452pt + 0.12at 8.92 0.17 0.66 1.09 (error estándar) 0.91 6.10 0.69 0.11 (valor de t) R2 = 0.95 F= 107.37 F tablas 5.29 Aunque la R2 es alta y también la F sólo una variable estadísticamente distinta de cero Los autores concluyen que no es posible analizar los efectos en el consumo que provienen de los distintos tipos de ingresos porque éstos se encuentran de alguna manera relacionados entre si.

MULTICOLINEALIDAD PERFECTA Se dice que existe multicolinealidad perfecta cuando las variables independientes son linealmente dependientes entre si por ejemplo X2 = X3 + 2X4 El primer efecto de esta situación es que no sería posible invertir la matriz (X´X)-1 y sería evidente el problema. Sin embargo es raro que se presente la multicolinealidad perfecta lo más probable es que la relación entre las variables sea aproximada pero no necesariamente perfecta.

CONSECUENCIAS DE LA MULTICOLINEALIDAD 1. Cuando existe cierta dependencia entre las variables algunos elementos de la matriz (X´X)-1 son muy grandes. Como la matriz de covarianzas se calcula s2 (X´X)-1 entonces las varianzas, los errores estándar y las covarianzas pueden ser muy grandes. La variación entonces es muy amplia, los intervalos de confianza muy amplios y por tanto la información que proviene del modelo puede ser muy imprecisa. 2. Si los errores estándar son muy grandes entonces se llega a la conclusión de que los coeficientes estimados no son estadísticamente distintos de cero (t muy chicas) a pesar de que el modelo tiene R2 y F altas. Esto quiere decir que las variables no están aportando suficiente información para estimar los efectos por separad

3. Los coeficientes estimados pueden ser muy sensibles cuando se agregan o quitan estimaciones o cuando se elimina una variable que aparentemente no es importante.

IDENTIFICANDO EL PROBLEMA DE LA MULTICOLINEALIDAD Calcular la correlación entre las variables una correlación mayor de 0.8 o 0.9 entre dos variables puede ser un indicador de una relación entre ellas. Calcular regresiones auxiliares cada una de las variables independientes en función del resto Por ejemplo Xk = b1X1 + b2 X2 +.........bk-1Xk-1 + v Si la R2 es alta es posible la presencia de multicolinealidad

Variance inflation factor (VIF) Se pueden calcular una diferente VIF, para cada variable independiente. Calcular regresiones auxiliares cada una de las variables independientes en función del resto. Por ejemplo Xk = b1X1 + b2 X2 +.........bk-1Xk-1 + v

Se calcula el factor VIF con R² para cada regresión auxiliar Si VIF es mayor de 10 hay multicolinealidad

La tolerancia definida como 1/VIF, se usa como una medida de la colinealidad. Un valor de tolerancia menor que 0.1 se compara con un VIF de 10. Esto significa que se puede considerar a esta variable como una combinación lineal de las otras variables independientes.

SOLUCIONES Un problema de la multicolinealidad es que no tiene suficiente información en cuando a los efectos individuales de las variables por tanto una posible solución es obtener más información e incluirla. No siempre es posible en las variables económicas. Eliminar alguna de las variables que son linealmente dependientes entre si Transformar las variables dividiendo todas las variables por la que se sospecha es la causa de la muticolinealidad

Ejemplo cars.dta regress mpg eng cyl wgt test eng cyl Regresiones auxiliares regress cyl eng wgt Guardar las R2 para comparar scalar r1= e(r2) regress eng wgt cyl scalar r2= e(r2) regress wgt eng cyl scalar r3= e(r2) scalar list r1 r2 r3

regress mpg eng cyl wgt Hacer la prueba con el comando vif display (1/(1-.9044))

Otro ejemplo Empleamos la base de datos “elemapi2.dta”, que contiene información sobre el desempeño académico de la educación básica en Estados Unidos. Vamos a demostrar que el desempeño académico (api00) está en función del porcentaje de alumnos que recibe desayunos gratuitos (meals), están aprendiendo ingles (ell) y del porcentaje de maestros con credenciales nuevas.

regress api00 meals ell emer Calculamos el factor de inflación de la varianza vif En este caso el VIF fue bastante bueno, sin embargo analicemos un caso con un VIF preocupante.

Qué sucede si aumentamos variables? regress api00 acs_k3 avg_ed grad_sch col_grad some_col vif En este caso hay multicolinealidad porque avg_ed, grad_sch y col_grad están correlacionadas. Estas variables son redundantes, ya que si sabemos el grado de estudios de los padres (grad_sch) y el número de padres con grado universitario (col_grad) es posible obtener el promedio de estudios de los padres (avg_ed).

Un comando alternativo para la colinearidad es “collin”, este comando puede ser ejecutado sin necesidad de realizar una regresión; solo se requieren las variables independientes para este comando. Si su versión de STATA no cuenta con el comando “collin”, puede descargarlo del internet con el comando “findit collin”

De la matriz de las X Sea Y = AX Un Eigenvector. Es un vector distinto de cero tal que AX = λX donde λ es un escalar llamado eigenvalue. Stata nos da el valor de los eigenvalue

Grandes valores de los eigenvalues indican no correlación entre las variables Un eigenvalue igual a cero implica perfecta collinealidad entre las variables independientes Pequeños valores de los eigenvalues implican multicolinealidad El problema que es pequeño o grande? Stata calcula el índice condicional

Condition index Es la raíz cuadrada de la razón entre el valor del más alto eigenvalue y cada uno de los eigenvalues. La regla Condition index mayores a 10 indican multicolinealidad

coldiag2 acs_k3 avg_ed grad_sch col_grad some_col Index menor a 50 En este caso la multicolinealidad surgió debido a que incorporamos muchas variables que miden la misma cosa, la educación de los padres por ejemplo.

Aplicando la solución de retirar variables explicativas; en este caso retiramos la variable avg_ed, regress api00 acs_k3 grad_sch col_grad some_col vif Es posible ver una mejora en el VIF Debido a que se redujo para las variables sobre la educación de los padres (grad_sch col_grad) La colinearidad estaba “inflando” a los errores estándar, incluso grad_sch no era significativa y ahora lo es.

Lo mismo ocurre con el comando “collin” coliang2 de “condition index” es un índice global de inestabilidad en los coeficientes de la regresión. Si el valor es mayor a 10, es síntoma de multicolinearidad.