P y E 2012 Clase 14 Gonzalo Perera 1 Repaso de clase anterior Estimación de parámetros por el método de Máxima Verosimilitud.

Slides:



Advertisements
Presentaciones similares
Posición Relativa de dos rectas
Advertisements

Tiro Parabólico Supongamos que se dispara un proyectil, con velocidad inicial v0, desde una altura h, formando un ángulo  con la horizontal. Se pretende.
REGRESION LINEAL SIMPLE
KRIGING CON TENDENCIA.
Bivariadas y Multivariadas
KRIGING.
Covarianza muestral Sean x1, x2, ..., xn e y1, y2, ..., yn dos muestras aleatorias independientes de observaciones de X e Y respectivamente. La covarianza.
INFERENCIA ESTADISTICA
Econometria 2. Modelo de Regresión Lineal Simple
Medidas de Dispersión Estadística E.S.O.
Supongamos que nos plantean el siguiente problema:
9 Regresión Lineal Simple
Tema 2: Métodos de ajuste
Unidad V: Estimación de
Introducción a Funciones de una variable
Representación de Señales y Ruido por medio de Series Ortogonales
INTERVALO DE CONFIANZA
Elementos Básicos de Probabilidad y Estadística Javier Aparicio División de Estudios Políticos, CIDE Julio 2009
Distribuciones derivadas del muestreo
Estadística Descriptiva continuación
ESTIMACIÓN DE COEFICIENTES DE MÁXIMA VEROSIMILITUD
DISTRIBUCIONES DE MUESTREO
Unidad V: Estimación de
Estimación Sea una característica, un parámetro poblacional cuyo valor se desea conocer a partir de una muestra. Sea un estadístico ( función.
P y E 2012 Clase 7Gonzalo Perera1 Repaso de clase anterior Distribución Gaussiana, Cauchy, Uniforme y Exponencial.
ANALISIS DE FRECUENCIA EN HIDROLOGIA (3)
DISTRIBUCION NORMAL Mario Briones L. MV, MSc 2005.
ESTADÍSTICAS DESCRIPTIVA
Introducción La inferencia estadística es el procedimiento mediante el cual se llega a inferencias acerca de una población con base en los resultados obtenidos.
Universidad Nacional de Colombia Curso Análisis de Datos Cuantitativos.
Capítulo 7 Estimación de Parámetros Estadística Computacional
Medidas de Posición y Centralización Estadística E.S.O.
Titular: Agustín Salvia
Tratamiento de datos y azar
Unidad V: Estimación de
Repaso de clase anterior
Sabemos reconocerlas, y calcularlas como soluciones de sistemas de ecuaciones, o de desigualdades Buscamos métodos de cálculo generales y eficientes Problemas.
Cálculo de extremos de funciones de R n –> R : Supongamos que queremos calcular un extremo de una función f de R n –> R: donde.
P Y E 2012 Clase 11Gonzalo Perera1 Repaso de clase anterior Fórmula del bloqueo de Erlang. LFGN y el problema de la Robustez.
Sistemas de Control y Proceso Adaptativo
P y E 2012 Clase 6Gonzalo Perera1 Repaso de clase anterior Distribución de Poisson como aproximación de la Bin(n,p) cuando n es muy grande y p es muy chico.
Bioestadística Tema 2: Estadísticos Bioestadística. U. Málaga.
DISTRIBUCIONES MUESTRALES
Tiro Parabólico Supongamos que se dispara un proyectil, con velocidad inicial v0, desde una altura h, formando un ángulo  con la horizontal. Se pretende.
INAOE CURSO PROPEDEUTICO PARA LA MAESTRIA EN ELECTRONICA
Repaso de clase anterior
P y E 2012 Clase 6Gonzalo Perera1 Repaso de clase anterior Distribución de Poisson como aproximación de la Bin(n,p) cuando n es muy grande y p es muy chico.
Elementos Básicos de Probabilidad y Estadística
Métodos Cuantitativos
Estimación y contraste de hipótesis
P y E 2012 Clase 8Gonzalo Perera1 Repaso de clase anterior Distribuciones multivariadas.
P Y E 2004 Clase 19Gonzalo Perera1 Propiedades generales del p-valor Repaso de la clase anterior. Tests de aleatoriedad Estadística de datos dependientes.
Regresión Lineal Simple
Ecuaciones.
INTERVALOS DE CONFIANZA
“CURSO PROPEDÉUTICO PARA EL MEJORAMIENTO DEL PENSAMIENTO MATEMÁTICO”
 Un sistema de ecuaciones es un grupo de ecuaciones que representan líneas rectas.  Una ecuación es una igualdad en la que los términos pueden ser conocidos.
ESTIMACIÓN DE PARÁMETROS
CONSTRUIMOS FUTURO Facultad de Ingenierías Físico-Mecánicas Escuela de Ingenierías Eléctrica, Electrónica y de Telecomunicaciones Centro de Innovación.
INTERVALO DE CONFIANZA
Control Moderno de Motores Eléctricos
P y E 2012 Clase 15Gonzalo Perera1 Repaso de la clase anterior. Métodos de estimación.
P y E 2014 Clase 4Gonzalo Perera1 Repaso de clase anterior Probabilidad condicional, independencia de sucesos. Distribución Binomial e Hipergeométrica.
INFERENCIA ESTADÍSTICA
Mini-video 2 de 5 Materia: Límites de funciones Continuidad de funciones Prácticas con Introducción a Funciones de una variable.
REGRESIÓN LINEAL SIMPLE
TEMA 2 INTEGRAL DE RIEMANN.
Intervalos de Confianza M. C. José Juan Rincón Pasaye UMSNH – FIE Mayo de 2003.
Estimación estadística
LOGO Medidas de posición Pedro Godoy G. Media Aritmética Valor representativo de un conjunto de datos Para datos no agrupados 1, x2, x3, x4,…………………………,
Transcripción de la presentación:

P y E 2012 Clase 14 Gonzalo Perera 1 Repaso de clase anterior Estimación de parámetros por el método de Máxima Verosimilitud.

P y E 2012 Clase 14 Gonzalo Perera 2 Estimación por el método de los momentos. Dada una variable aleatoria X llamamos momento de orden k de X a μ k (X)=E(X k ) Supongamos X 1,…,X n iid con distribución F que depende de una cantidad d de parámetros desconocidos pero que sabemos que sus momentos de orden k son finitos para k=1,…,d. Obsérvese que dichos momentos serán funciones de los parámetros desconocidos. Ejemplo: si la distribución F es N(μ,σ 2 ) y ambos parámetros son desconocidos, se tiene que μ 1 = μ, μ 2 = μ 2 + σ 2.

P y E 2012 Clase 14 Gonzalo Perera 3 La LFGN nos dice que si n es grande, S k =(1/n)(X 1 k +…+X n k ) estará muy cerca de μ k por lo cual si asumimos que μ k fuera igual a S k para k de 1 a d y usamos estos valores para “despejar” los d parámetros desconocidos tendríamos una estimación razonable de los mismos. Ejemplo: Volvamos al caso en que F es N(μ,σ 2 ) y ambos parámetros son desconocidos: vimos que μ 1 = μ, μ 2 = μ 2 + σ 2. Tomemos S 1 (promedio de los datos) y S 2 (promedio de los cuadrados de los datos) y planteemos: S 1 = μ, S 2 = μ 2 + σ 2, de donde σ 2 = S 2 - S 1 2, de donde nuestras estimaciones son : μ = S 1, σ 2 = S 2 - S 1 2.

P y E 2012 Clase 14 Gonzalo Perera 4 el método de los momentosEste método de estimación se conoce como el método de los momentos. No siempre es posible aplicarlo (por ejemplo, no lo es en la Cauchy), pero cuando es posible, en general aporta estimadores consistentes (que tienden a los verdaderos valores de los parámetros cuando n tiende a infinito). Si se observa detenidamente el ejemplo de la Normal, se verá que los métodos de Máxima Verosimilitud y de los Momentos dan las mismas estimaciones. Esto sin embargo es una coincidencia. Veremos a continuación un caso en que ambos métodos dan resultados completamente diferentes.

P y E 2012 Clase 14 Gonzalo Perera 5 Ejemplo:Ejemplo: Consideremos X 1,..., X n iid ~ U[a,b](distribución con densidad constante 1/(b-a) en el intervalo [a,b] y 0 fuera de [a,b]); entonces los EMV de a y b son (ver Clase 13,slide 7, ejemplo 4): Min(X 1,..., X n ) (para a) Max(X 1,..., X n ) (para b) Apliquemos el método de los momentos. Es muy fácil ver que μ 1 = (a+b)/2, μ 2 = (b 2 +ab+a 2 )/3=(4/3)μ 1 2 – (ab)/3, por lo que: a+b=2 μ 1, ab= 4μ μ 2 ; planteamos entonces a+b=2 S 1, ab= 4S 1 2 – 3S 2 ; Un cálculo muy simple muestra que las estimaciones por el método de los momentos que que de aquí resultan son: A= S 1 – (3[S 2 –S 1 2 ]) (1/2), B= S 1 + (3[S 2 –S 1 2 ]) (1/2), que no coinciden con los EMV antes vistos. Para hacerlo más visible,veamos un ejemplo numérico concreto.

P y E 2012 Clase 14 Gonzalo Perera 6 Supongamos que tenemos X 1,..., X n iid ~ U[a,b] con n=30 y que deseamos estimar a y b. Si los datos concretos son la columna de la derecha, tenemos S 1 =2,897 y S 2 =8,741 y las estimaciones por el método de momentos son A=1,878 y B= 3,917. En cambio, los EMV son: A=1,818 y B= 3,879. En este caso, los 30 datos fueron simulados y por ende sabemos que a=1,8 y b=3,9. Obsérvese que con una muestra de apenas 30 datos, ambos métodos dieron muy buenas estimaciones, diferentes pero coherentes entre sí. 2,068 3,171 2,509 2,965 3,659 3,484 2,649 1,818 3,123 1,836 3,296 3,160 2,458 2,753 3,442 1,952 2,301 1,982 3,047 3,561 3,177 3,024 3,402 3,540 2,657 3,855 2,639 2,605 2,910 3,879

P y E 2012 Clase 14 Gonzalo Perera 7 Estimaciones basadas en cuantiles. Si F es una distribución continua y estrictamente creciente, entonces para todo 0<p<1, existe un único valor q(p), que llamamos cuantil p de F tal que F(q(p))=p (cuando p=1/4 se le llama en la literatura primer cuartil, cuando p=3/4 se le llama tercer cuartil, cuando p=1/5 primer quintil, etc.) estadísticos de orden Si X 1,..., X n iid ~ F, llamamos X 1 *≤...≤ X n * a la muestra ordenada de menor a mayor (los también llamados estadísticos de orden) y llamamos cuantil p empírico a q n (p)=X [np] * Puede probarse que para una F continua y estrictamente creciente lim n q n (p)=q(p) (es decir que los cuantiles empíricos son estimadores consistentes de los cuantiles de F)

P y E 2012 Clase 14 Gonzalo Perera 8 Un parámetro muy usado para cuantificar la dispersión de los datos es la distancia intercuartílica. Llamamos distancia intercuartílica de F a d = q(3/4) - q(1/4) y distancia intercuartílica empírica a d n = q n (3/4) - q n (1/4).

P y E 2012 Clase 14 Gonzalo Perera 9 Ejemplo: Estimación de parámetros en el problema de posición y escala. El problema de posición (  ) y escala (  ) coresponde a la estimación de ambos parámetros cuando tenemos una muestra iid de datos cuya distribución F es la misma que la de la variable  +  Y, con Y con distribución F 0 completamente conocida. Supondremos además que la distribución F 0 es continua, estrictamente creciente y con mediana cero (éste es el caso, por ejemplo, cuando nuestros datos tienen distribución C( ,  2 ), donde F 0 es la distribución C(0,1)). En la Cauchy hasta ahora no teníamos cómo estimar los parámetros. Usaremos para ello los cuantiles.

P y E 2012 Clase 14 Gonzalo Perera 10 Llamando t(p) a los cuantiles de F 0 (que son valores conocidos), es muy fácil verificar que q(p) =  +  t(p); evaluando la anterior ecuación para p = 0.25, 0.5 y 0.75 y despejando, resulta   = q(0.5),   = (q(0.75) - q(0.25)) / (t(0.75) - t(0.25)), de donde resultan los estimadores consistentes   n = q n (0.5),   n = (q n (0.75) - q n (0.25)) / (t(0.75) - t(0.25)); En la C(0,1), t(0.75) =1, t(0.25)=-1, por lo que para el caso Cauchy tenemos: ·  n = q n (0.5), ·  n = (q n (0.75) - q n (0.25)) / 2.

P y E 2012 Clase 14 Gonzalo Perera 11 En el caso en que en lugar de F 0 completamente conocida tenemos F  que depende de un parámetro adicional , podemos aplicar una variante de éste método, llamado método de ajuste cuadrático de percentiles para estimar los tres parámetros desconocidos. En este método, se toma un entero k  3 y se eligen k valores 0<p 1 <p 2 <...<p k <1. Si llamamos q(p,  ) al cuantil p de F , entonces se estiman los tres parámetros desconocidos por los valores que minimizan  1  i  k (q n (p i ) -  -  q(p i,  )) 2

P y E 2012 Clase 14 Gonzalo Perera 12 Calculando las derivadas respectivas, los parámetros resultan estimados por: 1. En el caso de , la solución de la ecuación-no lineal A/B=N/D, donde · A= M(q n,  ) - M(q n )M(q  ), · B=M(q  2 )- M(q  ) 2, · N=(1/k) - M(q n )M(q  ’) · D= (1/k) - M(q  )M(q  ’) y q n,  es el vector (q n (p 1 ) q(p 1,  )),..., q n (p k ) q(p k,  ))), q  2 es el vector (q(p 1,  )) 2,..., q(p k,  )) 2 ), q n es el vector (q n (p 1 ),..., q n (p k )), q  es el vector (q(p 1,  )),..., q(p k,  ))), q  ’ es el vector de derivadas (  q(p 1,  ))/ ,...,  q(p k,  ))/  )), denota el producto escalar de los vectores u y v (o sea, u 1 v u k v k ) y M(u) el promedio de las coordenadas del vector u (o sea {u u k }/k)

P y E 2012 Clase 14 Gonzalo Perera 13 2.En el caso de , si  es el que resulta del punto anterior,  =(M(q n,  )-M(q n )M(q  ))/(M(q  2 )-M(q  ) 2 ) 3. En el caso de , si  y  son los que resultan del punto anterior  = M(q n ) -  M(q  ). Hay muchos métodos numéricos de resolución de ecuaciones no- lineales (bisecciòn, Newton-Raphson, etc.).