La descarga está en progreso. Por favor, espere

La descarga está en progreso. Por favor, espere

Estimación Sea una característica, un parámetro poblacional cuyo valor se desea conocer a partir de una muestra. Sea un estadístico ( función.

Presentaciones similares


Presentación del tema: "Estimación Sea una característica, un parámetro poblacional cuyo valor se desea conocer a partir de una muestra. Sea un estadístico ( función."— Transcripción de la presentación:

1 Estimación Sea una característica, un parámetro poblacional cuyo valor se desea conocer a partir de una muestra. Sea un estadístico ( función de la muestra ) que utilizamos para estimar el valor de . Observa que el estadístico: es una función que depende de la muestra y lo llamaremos estimador. El valor concreto de es la estimación. Hay dos tipos básicos de estimación: puntual y por intervalo de confianza.

2 Estimación puntual Provee un solo valor, un valor concreto para la estimación. Un estimador puntual es simplemente un estadístico (media aritmética, varianza, etc.) que se emplea para estimar parámetros (media poblacional, varianza poblacional, etc.). Por ejemplo, cuando obtenemos una media aritmética a partir de una muestra, tal valor puede ser empleado como un estimador para el valor de la media poblacional. Algunos autores comparan los estimadores con los lanzamientos en una diana: el círculo central sería el valor real del parámetro.

3 Por intervalo Determina dos valores (límites de confianza) entre los que acepta puede estar el valor del estimador. Hablaremos de nivel de confianza 1-α cuando en el intervalo se encuentre el valor del estimador con probabilidad 1-α. Observa que la probabilidad de error (no contener al parámetro) es α. En general el tamaño del intervalo disminuye con el tamaño muestral y aumenta con 1-α. En todo intervalo de confianza hay una noticia buena y otra mala: La buena: hemos usado una técnica que en % alto de casos acierta. La mala: no sabemos si ha acertado en nuestro caso.

4 Métodos de estimación puntual
Hemos visto que un estimador de la media poblacional es la media muestral y de la varianza poblacional es la seudovarianza muestral. Pero, ¿cómo determinar un estimador cuando no se trata de la media o la varianza? Por ejemplo, supongamos una población con función densidad: ¿Cómo estimar el parámetro θ? Método de los momentos Método de máxima verosimilitud Método de mínimos cuadrados (Lo veremos más adelante en el tema de regresión)

5 Método de los momentos Si una distribución tiene k parámetros, el procedimiento consiste en calcular los primeros k momentos muestrales de la distribución y usarlos como estimadores de los correspondientes momentos poblacionales. La media poblacional  es el primer momento de la distribución alrededor del origen. La media muestral es el promedio aritmético de las observaciones muestrales x1, x2, ..., xn. El método de los momentos toma a la media muestral como una estimación de la media poblacional. De la misma manera, la varianza de una variable aleatoria es 2 y se denomina segundo momento alrededor de la media. La varianza muestral s2 se usa como un estimador de la varianza poblacional de la distribución.

6 Recordemos que el momento muestral centrado en el origen
de orden r se define como: Para el ejemplo anterior, los momentos de primer orden centrados en el origen de la población y la muestra son respectivamente: Igualando: Luego podemos usar como estimador:

7 Método de máxima verosimilitud
Sea X una variable aleatoria cuya distribución de probabilidad depende del parámetro desconocido . Sea la función de densidad de probabilidad de la población f(x, ). Se toma una muestra aleatoria x1, x2, ..., xn de observaciones independientes y se calcula la densidad conjunta de la muestra: la función de verosimilitud y se expresa como:

8 Si de una población cualquiera hemos obtenido una muestra
particular, es razonable pensar que la muestra obtenida era la que mayor probabilidad tenía de ser escogida. Función máxima verosimilitud Valor del estimador máxima verosimilitud

9 Si los valores posibles de  son discretos, el procedimiento es evaluar L(x,) para cada valor posible y elegir el valor de  para el cual L alcanza su máximo. Por otro lado, si L(x,) es diferenciable se puede maximizar L sobre el rango de valores posibles de  obteniéndose condiciones de primer y segundo orden. En la práctica es más fácil maximizar el logaritmo de la función de verosimilitud. Como la función logaritmo es una transformación monótona, maximizar L(x,) es equivalente a maximizar Ln(L(x,)).

10 Ejemplo: Sea una urna con bolas rojas y blancas en proporciones
desconocidas. Extraemos 10 bolas con reemplazo (n = 10) y obtenemos 3R y 7B. Llamemos p a la proporción de R en la urna. Soluciones: p = p = p = 3/10 Que además hace máxima la función L(p) Imposible porque hemos extraído 3R Imposible porque hemos extraído 7B

11 coincide con el estimador que nos propone el método de los momentos.
Volvamos al ejemplo: Construimos la función máxima verosimilitud Extraemos logaritmos a ambos lados Derivamos e igualamos a cero para encontrar el máximo de la función Observemos que no coincide con el estimador que nos propone el método de los momentos.

12 Propiedades deseables en los estimadores
Los dos procedimientos que repasamos hace un momento (más el método de mínimos cuadrados que veremos luego) eligen a la media muestral como estimador del parámetro . Sin embargo, otras veces obtenemos estimadores distintos para el mismo parámetro, como ocurre con 2. O como hemos visto para el caso del parámetro  del ejemplo. En esos casos, ¿cuál es el mejor estimador? Ausencia de sesgo Consistencia Eficiencia Suficiencia

13 1. Estimador insesgado. Diremos que es un estimador insesgado de si:
Vimos que la media muestral es un estimador insesgado de la media poblacional. Vimos que la varianza muestral no es un estimador insesgado de la varianza poblacional, es sesgado. Recuerda que construimos la cuasivarianza que sí es un estimador insesgado de la varianza poblacional. se llama sesgo de

14 Sea una población N(, ) y construyamos los estimadores de
varianza: varianza muestral y cuasivarianza muestral. Vimos que si la población es normal, entonces el estimador:

15 Propiedades en muestras grandes
Muchos estimadores no tienen buenas propiedades para muestras pequeñas, pero cuando el tamaño muestral aumenta, muchas de las propiedades deseables pueden cumplirse. En esta situación se habla de propiedades asintóticas de los estimadores. Como el estimador va a depender del tamaño de la muestra vamos a expresarlo utilizando el símbolo Por ejemplo, el sesgo puede depender del tamaño de la muestra. Si el sesgo tiende a cero cuando el tamaño de la muestra crece hasta infinito decimos que el estimador es asintóticamente insesgado.

16 Ausencia de sesgo asintótica
Definición: Un estimador se dice que es asintóticamente insesgado si o equivalentemente:

17 2. Consistencia. Se dice que un estimador es consistente si se cumple que
Es decir, a medida que se incrementa el tamaño muestral, el estimador se acerca más y más al valor del parámetro. La “consistencia” es una propiedad asintótica. Tanto la media muestral como la cuasivarianza son estimadores consistentes. La varianza muestral es un estimador consistente de la varianza poblacional, dado que a medida que el tamaño muestral se incrementa, el sesgo disminuye.

18 Ejemplo: supongamos que la población es no normal y de media
desconocida. Construyamos estadísticos media muestral: Para cada tamaño muestral n tenemos: Por el teorema de Chebychev: La media muestral es un estimador consistente de la media poblacional.

19 3. Eficiencia. Utilizar las varianzas de los estimadores insesgados como una forma de elegir entre ellos. La varianza de una variable aleatoria mide la dispersión alrededor de la media. Menor varianza para una variable aleatoria significa que, en promedio, sus valores fluctúan poco alrededor de la media comparados con los valores de otra variable aleatoria con la misma media y mayor varianza. Menor varianza implica mayor precisión y entonces el estimador que tenga menor varianza es claramente más deseable porque, en promedio, está mas cerca del verdadero valor de . Si , decimos que es un estimador insesgado eficiente o de varianza mínima para  , si cualquier otro estimador insesgado de  , digamos , verifica que:

20 Sean y dos estimadores insesgados del parámetro .
Si Var ( ) < Var ( ) decimos que es más eficiente que El cociente Var ( ) / Var ( ) se llama eficiencia relativa. Entre todos los estimadores insesgados de , el que tenga menor varianza es el estimador insesgado de mínima varianza. Pero, ¿cómo podemos encontrarlo?

21 Cota de Cramér-Rao: Sea una población con densidad de probabilidad
f(x, ), entonces se cumple que: Si un estimador tiene una varianza que coincide con la cota de Cramér-Rao se dice que es un estimador eficiente. Si además en insesgado, se dice que es un estimador de eficiencia absoluta o completa.

22 Ejemplo: Sea una población que se distribuye normalmente
con desviación típica conocida y media desconocida. Como estimador utilizaremos la media muestral. Sabemos que la distribución del estimador es también una normal con la misma media y varianza Luego el estimador es insesgado: b() = 0. Calculemos la cota de Cramér-Rao (CCR).

23 Eficiencia asintótica
Cuando trabajamos con estimadores consistentes el rango de valores de  para el cual un estimador es más eficiente que otro disminuye a medida que n crece. En el límite cuando n tiene a infinito la distribución de todos los estimadores consistentes colapsa en el verdadero parámetro . Entonces deberíamos preferir aquel estimador que se aproxime más rápidamente (es decir, aquel cuya varianza converge más rápido a cero)

24 En términos intuitivos, un estimador consistente es asintóticamente eficiente si para muestras grandes su varianza es menor que la de cualquier otro estimador consistente. Definición: un estimador consistente se dice que es asintóticamente eficiente si para cualquier otro estimador el

25 4. Suficiencia. Diremos que es un estimador suficiente del parámetro si dicho estimador basta por sí solo para estimar . Si el conocimiento pormenorizado de los elementos la muestra no añade ninguna información sobre . Ejemplo: Supongamos una población binomial de la que desconocemos la proporción  = p. Extraemos una muestra de tamaño n = 50. Estimador suficiente, p aprox. 35/50.

26 Error cuadrático medio (ECM)
Consideremos dos estimadores, uno insesgado y el otro es sesgado pero con una varianza bastante menor, de modo que en promedio puede estar más cerca de la verdadera media que el estimador insesgado. En esta situación podríamos admitir algo de sesgo con la intención de obtener una mayor precisión en la estimación (menor varianza del estimador). Una medida que refleja este compromiso (“trade off”) entre ausencia de sesgo y varianza es el ECM.

27 El error cuadrático medio de un estimador se define como ECM ( ) = E[(  )2] . Esto es la esperanza de la desviación al cuadrado del estimador con respecto al parámetro de interés. Si , son dos estimadores alternativos de  y ECM ( ) < ECM ( ) entonces se dice que es eficiente en el sentido del ECM comparado con . Si los dos son insesgados, entonces es más eficiente. Entre todos los posibles estimadores de , aquel que tenga el menor ECM es el llamado estimador de mínimo error cuadrático medio. ECM = Var( ) + sesgo2. es decir que el ECM es igual a la suma de la varianza más el sesgo al cuadrado.

28 Compromiso entre varianza y sesgo de los estimadores.
Variable aleatoria Constante Compromiso entre varianza y sesgo de los estimadores. sesgo 2

29 Ejemplos: Supongamos una población de la que conocemos
la media y la varianza (= 100). Tomemos muestras n = 10. Consideremos los dos estimadores de la media siguientes: Dependiendo de la media de la población nos interesará tomar un estimador u otro.

30 Propiedades de los estimadores de máxima verosimilitud
Los estimadores máximo verosímiles son: Asintóticamente insesgados Asintóticamente normales Asintóticamente eficientes Invariantes bajo transformaciones biunívocas Si  estimador suficiente, es suficiente


Descargar ppt "Estimación Sea una característica, un parámetro poblacional cuyo valor se desea conocer a partir de una muestra. Sea un estadístico ( función."

Presentaciones similares


Anuncios Google