Descargar la presentación
La descarga está en progreso. Por favor, espere
Publicada porTherasia Real Modificado hace 9 años
1
Capítulo 7 Estimación de Parámetros Estadística Computacional
2
Algunas consideraciones
previas Conceptos básicos Distribuciones usadas en Inferencia Teoremas relevantes Estimación puntual Estimación por intervalos
3
Distribuciones usadas en Inferencia
1.- Ji-Cuadrado con “n” grados de libertad. Sea X1, X2,...,Xn n v.a. continuas independientes tal que Xi ~ N (0,1) i = 1,n (i.i.d.) ~ donde
4
donde OBS: 1. 2. 3. TABLA
5
Distribuciones usadas en Inferencia
2.- t-Student Sea X v.a.c. tal que X ~ N (0,1) Y v.a.c. tal que Y ~ 2(n) Sea ~
6
OBS: 1. 2. 3. TABLA
7
Distribuciones usadas en Inferencia
3.- F-de Fisher Sea X v.a.c. tal que X ~ 2(n) Y v.a.c. tal que Y ~ 2(m) independientes Sea ~
8
siendo OBS: 1. 2. TABLA
9
Teoremas Límites Convergencia en Distribución: x pto. continuidad
Convergencia en Probabilidad: >0 Nota:
10
Desigualdad de Chebyshev:
Sea X v.a. / Entonces Ley débil de los grandes números: suc. de v.a.i.i.d. / entonces:
11
Teorema Central de Límite:
Sea {X} suc. de v.a.i.i.d / finitas. Entonces:
12
Estimación de Parámetros
El objetivo de la estimación de parámetros es proveer de métodos que permitan determinar con cierta precisión, el valor de los parámetros desconocidos de un modelo estadístico a partir de una muestra extraída al azar de una Población. 1. Método de estimación Puntual 2. Método de estimación por Intervalos
13
(Estadística basada en la Información )
Definición de Estimador Un estimador es una regla que nos indica cómo obtener un parámetro de un modelo, basándose en la información contenida en una muestra ( M={ f ( x , ) : modelo ) T : x T (x) = T (X1, X2,...., Xn) T (x) : Estimador de , variable aleatoria, función de la muestra, que no depende del parámetro . (Estadística basada en la Información ) ={x : x es una muestra aleatoria} Espacio de Información En lo que sigue = T (X1, X2,...., Xn) estimador de .
14
Propiedades de los estimadores puntuales
Un estimador es una v.a. y todo juicio sobre él, se basará en su ley de Probabilidad, y más específicamente sobre su Esperanza y Varianza. se dice que es insesgado se llama sesgo de se llama error cuadrático medio del estimador se dice que es consistente
15
Propiedades de los estimadores puntuales
5. Si , decimos que es un estimador insesgado de varianza mínima para . Si todo otro estimador insesgado de , digamos , se verifica que: 6. Sea X1, X2,..., Xn m.a. f ( x , ). Si es: Nota: Si es eficiente
16
Propiedades de los estimadores puntuales
7. Sean dos estimadores de Se llama eficiencia relativa de a: es un estimador suficiente si usa toda la información contenida en la muestra.
17
Métodos de estimación puntual
Método de Momentos Método de Máxima Verosimilitud Método de Mínimos Cuadrados
18
Momentos (K. Pearson) La idea es simple. Consiste en igualar los momentos de la población y de la muestra
19
Máxima Verosimilitud Consideremos X = (X1, X2,..., Xn ) m.a. f ( x , ). Se llama función de verosimilitud a: Además se define: función soporte: función score: El valor (vector) de que maximiza se llama estimador máximo verosimil, i.e. (caso univariado)
20
Propiedades de los Estimadores
Máximo Verosímiles Los estimadores máximo verosímiles son: Asintóticamente insesgados Asintóticamente normales Asintóticamente eficientes Invariantes bajo transformaciones biunívocas Si estimador suficiente, es suficiente
21
Sea X1, X2,..., Xn m.a. N ( , 2 ). Encontrar el EMV de
22
En general: := Matriz de Información de Fisher esperada. := Matriz de Información observada en la muestra.
23
OBS: Caso escalar Se dice que es un estimador eficiente de
24
Estimación por Intervalos
En la práctica, interesa no sólo dar una estimación de un parámetro, sino que además, un intervalo que permita precisar la incertidumbre existente en la estimación. Definición: Sea x m.a. f ( x , ). Sean 1=T1(x), 2=T2(x) dos estadísticas de : T1 T2 x ; P 1 2 = 1 - = Entonces el I = 1 ; 2 se llama intervalo aleatorio de confianza del 100 % para ( 0 < < 1 ).
25
La variable Q(x,) se denomina “Cantidad Pivotal”
Estimación por Intervalos Fijado , el problema de determinar 1 y 2 puede resolverse encontrando una variable aleatoria Q(x,) cuya distribución esté totalmente definida, que sea independiente de . La variable Q(x,) se denomina “Cantidad Pivotal” Ejemplo: X1, X2,..., Xn1 N ( 1 ,21) Q(x,)= Q(x,)=
26
Método de la Cantidad Pivotal
1. Encontrar una cantidad Q. 2. P q1 Q q2 = 1 - = 3. Invertir P 1 2 = , obteniendo así un intervalo I=1 ; 2 de confianza para de nivel 100 %. Observación: Para muestras grandes la v.a. Q siempre existe, ya que si , entonces tiene distribución asintóticamente normal estándar.
27
~ ~ ~ ~ Intervalo de Confianza para diferencia de medias
Supuesto: Poblaciones Normales P1: X1, X2,..., Xn1 N ( 1 ,21) P2: Y1, Y2,..., Yn2 N ( 2 ,22) ~ ~ ~ ~
28
Asumiendo independencia de las muestras :
~ ~ ~
29
Finalmente: Es un Intervalo de confianza de nivel para 1 - 2
30
Supongamos que Siendo g = n1 + n grados de libertad
31
Intervalo de Confianza para 12/22
Recordemos que: ~ ~ ~ donde Se obtiene el intervalo de iguales colas Si ;
32
Resumen: Intervalos de Confianza Poblaciones no Normales
Poblaciones Normales Poblaciones no Normales
33
Parámetro Estadística Distribución Intervalo , conocido N (0,1)
desconocido 1 - 2 1 = 2 1 - 2 1 2 muestra grande N (0,1)
Presentaciones similares
© 2024 SlidePlayer.es Inc.
All rights reserved.