ESTIMACIÓN DE COEFICIENTES DE MÁXIMA VEROSIMILITUD

Slides:



Advertisements
Presentaciones similares
Modelos de Variable Dependiente Binaria -Logit y Probit-
Advertisements

ERROR ESTÁNDAR CONSISTENTE BAJO HETEROSCEDASTICIDAD
KRIGING CON TENDENCIA.
Pronósticos, Series de Tiempo y Regresión
Bivariadas y Multivariadas
Selección del modelo adecuado
¿Cuál es la naturaleza de las ecuaciones simultáneas?
KRIGING.
GEOESTADISTICA MULTIVARIADA
Covarianza muestral Sean x1, x2, ..., xn e y1, y2, ..., yn dos muestras aleatorias independientes de observaciones de X e Y respectivamente. La covarianza.
Modelado y simulación en Ingeniería Química. Manuel Rodríguez
INFERENCIA ESTADISTICA
Pruebas de Especificación en el Modelo de Regresión Múltiple
Estadísticos de Prueba en el Modelo de Regresión Múltiple
MODELO DE REGRESIÓN MÚLTIPLE
Regresión Lineal y Regresión Polinomial
ESTRATEGIAS Y DISEÑOS AVANZADOS DE INVESTIGACIÓN SOCIAL
Econometria 2. Modelo de Regresión Lineal Simple
Regresión y correlación
División de Estudios Políticos, CIDE
Tema 2: Métodos de ajuste
Análisis de supervivencia Tema 5 Itziar Aretxaga.
MODELOS DE ELECCIÓN BINARIA: ANÁLISIS LOGIT
TIPOS DE MODELOS DE REGRESIÓN Y SUPUESTOS PARA EL MODELO A
MODELOS DE ELECCIÓN BINARIA : ANÁLISIS PROBIT
Pronósticos, Series de Tiempo y Regresión
VARIABLE ALEATORIA Y DISTRIBUCION DE PROBABILIDAD
Modelo de regresión simple: Y =  1 +  2 X + u 1 Hemos visto que los coeficientes de regresión b 1 y b 2 son variables aleatorias. Estos, respectivamente,
Modelo de regresión simple: Y =  1 +  2 X + u Ahora, demostraremos que el estimador ordinario de mínimos cuadrados (OLS) del coeficiente de la pendiente.
Elementos Básicos de Probabilidad y Estadística Javier Aparicio División de Estudios Políticos, CIDE Julio 2009
Programación Numérica
DERIVADO DE LOS COEFICIENTES DE REGRESIÓN LINEAL Y X Esta sequencia muestra cómo los coeficientes de regresión para un modelo de regresión lineal simple.
Unidad V: Estimación de
ANALISIS DE FRECUENCIA EN HIDROLOGIA (2)
ANALISIS DE FRECUENCIA EN HIDROLOGIA (3)
DISTRIBUCION NORMAL Mario Briones L. MV, MSc 2005.
FACILITADOR JOSE HERIBERTO CRUZ GARCÍA
LOS COMPONENTES ALEATORIOS DE LOS COEFICIENTES DE REGRESIÓN
Métodos de calibración: regresión y correlación
Introducción La inferencia estadística es el procedimiento mediante el cual se llega a inferencias acerca de una población con base en los resultados obtenidos.
ESTADISTICA I CSH M. en C. Gal Vargas Neri.
Capítulo 7 Estimación de Parámetros Estadística Computacional
Titular: Agustín Salvia
Introducción a la Inferencia Estadística
CORRELACION Y REGRESION LINEAL: Introducción
Estimación por intervalo en la regresión: Bandas de Confianza
RELACIÓN GRÁFICA EN UN MODELO DE REGRESIÓN MULTIPLE. reg EARNINGS S EXP Source | SS df MS Number of obs =
LA PRUEBA F DE BONDAD DE AJUSTE 2 Vamos a considerar el caso general donde hay k – 1 variables explicativas. Para la prueba F de bondad de ajuste de la.
Estimador de Efectos Fijos
Unidad V: Estimación de
Estimación de modelos ARMA
UNIDAD 1.- EVALUACIÓN DE DATOS ANALITICOS
DISTRIBUCIONES MUESTRALES
ANÁLISIS DE REGRESIÓN SIMPLE
MÉTODOS DE ANÁLISIS EN LA TOMA DE DECISIONES EXISTEN PROCEDIMIENTOS DE ORDEN MATEMÁTICO, FINANCIERO, ECONÓMICO, ESTADÍSTICO ENTRE OTROS, PARA LA TOMA DE.
Elementos Básicos de Probabilidad y Estadística
REGRESIÓN MULTIPLE CON DOS VARIABLES EXPLICATIVAS: EJEMPLO INGRESO EXP S 11 1 INGRESO =  1 +  2 S +  3 EXP + u Esta presentación proporciona una interpretación.
1 Y MODELO DE REGRESIÓN SIMPLE Suponemos que una variable Y es una función lineal de otra variable X, con parámetros desconocidos  1 y  2 que queremos.
Estimación y contraste de hipótesis
FACTORIZACION.
Capitulo 4 Análisis descriptivo inferencial: comparaciones múltiples
ESTIMACIÓN DE PARÁMETROS
Construcción de modelos con regresión y correlación
MODELOS DE PRONOSTICOS Primer semestre 2010 Modelo de Regresión con dos variables.
P y E 2012 Clase 14 Gonzalo Perera 1 Repaso de clase anterior Estimación de parámetros por el método de Máxima Verosimilitud.
REGRESIÓN LINEAL SIMPLE
TAMAÑO DE LA MUESTRA. Para definir el tamaño de la muestra se debe tener en cuenta los recursos disponibles y las necesidades del plan de análisis, el.
Free and Quick translation of Prof. Anderson's slides1 Analisis de Regresion Multiple y =  0 +  1 x 1 +  2 x  k x k + u 1. Estimacion.
METODO DEL PUNTO ALTO Y DEL PUNTO BAJO
M.E. ADA PAULINA MORA GONZALEZ. Esta parte describe las técnicas para ajustar curvas en base a datos para estimaciones intermedias. Una manera de hacerlo.
Transcripción de la presentación:

ESTIMACIÓN DE COEFICIENTES DE MÁXIMA VEROSIMILITUD Y Xi b1 b1 + b2Xi Y = b1 + b2X Ahora, se aplicará el principio de máxima verosimilitud al análisis de regresión en un modelo de regresión simple Y = b1 + b 2X + u. 1

ESTIMACIÓN DE COEFICIENTES DE MÁXIMA VEROSIMILITUD Y Xi b1 b1 + b2Xi Y = b1 + b2X El marcador negro muestra el valor que tendría Y si X fuera igual a Xi y si no hubiera un término de error. 2

ESTIMACIÓN DE COEFICIENTES DE MÁXIMA VEROSIMILITUD Y Xi b1 b1 + b2Xi Y = b1 + b2X Sin embargo, se asumirá que existe un término de error en el modelo y que tiene una distribución normal como la que se muestra. 3

ESTIMACIÓN DE COEFICIENTES DE MÁXIMA VEROSIMILITUD Y Xi b1 b1 + b2Xi Y = b1 + b2X Respecto al marcador negro, la curva representa la distribución ex ante para u, es decir, su distribución potencial antes de que se genere la observación. Ex post, por supuesto, se fija en un cierto valor específico. 4

ESTIMACIÓN DE COEFICIENTES DE MÁXIMA VEROSIMILITUD Y Xi b1 b1 + b2Xi Y = b1 + b2X En relación al eje horizontal, la curva también representa la distribución ex ante de Y para esa observación, es decir, condicional en X = Xi. 5

ESTIMACIÓN DE COEFICIENTES DE MÁXIMA VEROSIMILITUD Y Xi b1 b1 + b2Xi Y = b1 + b2X Los valores potenciales de Y, cercanos a b1 + b2Xi, tendrán densidades relativamente grandes. 6

ESTIMACIÓN DE COEFICIENTES DE MÁXIMA VEROSIMILITUD Y Xi b1 b1 + b2Xi Y = b1 + b2X ... mientras valores deY relativamente lejanos de b1 + b2Xi tendrán densidades reducidas. 7

ESTIMACIÓN DE COEFICIENTES DE MÁXIMA VEROSIMILITUD Y Xi b1 b1 + b2Xi Y = b1 + b2X El valor medio de la distribución de Yi es b1 + b2Xi. Su desviación estándar es s, la desviación estándar del término error. 8

ESTIMACIÓN DE COEFICIENTES DE MÁXIMA VEROSIMILITUD Y Xi b1 b1 + b2Xi Y = b1 + b2X Por lo tanto, la función de densidad para la distribución ex ante de Yi es la que se muestra. 9

ESTIMACIÓN DE COEFICIENTES DE MÁXIMA VEROSIMILITUD La función de densidad conjunta para las observaciones en Y es el producto de sus densidades individuales. 10

ESTIMACIÓN DE COEFICIENTES DE MÁXIMA VEROSIMILITUD Ahora, tomando b1, b2 y s como nuestra elección de variables, y tomando los datos de Y y X como dados, se puede reinterpretar esta función como la función de máxima verosimilitud b1, b2, y s. 11

ESTIMACIÓN DE COEFICIENTES DE MÁXIMA VEROSIMILITUD Elegiremos b1, b2, y s con el propósito de maximizar la verosimilitud, dados los datos de Y y X. Usualmente, es más fácil hacer esto de manera indirecta, maximizando el log-verosimilutd (log-likelihood). 12

ESTIMACIÓN DE COEFICIENTES DE MÁXIMA VEROSIMILITUD El primer paso es descomponer la expresión como la suma de los logaritmos de los factores. 13

ESTIMACIÓN DE COEFICIENTES DE MÁXIMA VEROSIMILITUD Después, separamos el logaritmo de cada factor en dos componentes. El primer componente es el mismo en cada caso. 14

ESTIMACIÓN DE COEFICIENTES DE MÁXIMA VEROSIMILITUD Por lo tanto, el log-verosimilud (log-likelihood) se simplifica como se muestra. 15

ESTIMACIÓN DE COEFICIENTES DE MÁXIMA VEROSIMILITUD Para maximizar el log-verosimilitud (log-likelihood), se debe minimizar Z. Sin embargo, la elección de los estimadores de b1 y b2 para minimizar Z es exactamente lo que se hizo cuando se derivaron los coeficientes de regresión de mínimos cuadrados. 16

ESTIMACIÓN DE COEFICIENTES DE MÁXIMA VEROSIMILITUD Por lo tanto, para este modelo de regresión, los estimadores de máxima verosimilitud de b1 y b2 son idénticos a los estimadores de mínimos cuadrados. 17

ESTIMACIÓN DE COEFICIENTES DE MÁXIMA VEROSIMILITUD Como consecuencia, Z será la suma de los cuadrados de los residuales de los mínimos cuadrados. 18

ESTIMACIÓN DE COEFICIENTES DE MÁXIMA VEROSIMILITUD Para obtener el estimador de máxima verosimilitud de s, es conveniente reordenar la función log-verosimilitud (log-likelihood) como se muestra. 19

ESTIMACIÓN DE COEFICIENTES DE MÁXIMA VEROSIMILITUD Simplificando respecto de s, se obtiene la siguiente expresión. 20

ESTIMACIÓN DE COEFICIENTES DE MÁXIMA VEROSIMILITUD La condición de primer orden para un máximo requiere que sea igual a cero. Por lo tanto, el estimador de máxima verosimilitud de la varianza es la suma de los cuadrados de los residuales, dividido entre n. 21

ESTIMACIÓN DE COEFICIENTES DE MÁXIMA VEROSIMILITUD Observe que esto implica un sesgo para muestras finitas. Para obtener un estimador no sesgado, se debe dividir entre n–k, donde k es el número de parámetros, en este caso 2. Sin embargo, el sesgo desaparece a medida que la muestra se vuelve más grande. 22

Copyright Christopher Dougherty 2000–2009 Copyright Christopher Dougherty 2000–2009. This slideshow may be freely copied for personal use. 02.02.09