Unidad V: Estimación de

Slides:



Advertisements
Presentaciones similares
DISEÑO DE EXPERIMENTOS EXPERIMENTOS DE COMPARACIÓN SIMPLE
Advertisements

DSITRIBUCION T DE STUDENT.
Modelos de Variable Dependiente Binaria -Logit y Probit-
Estimación. Estimación Puntual Estimación por intervalos
Contraste de Hipótesis
Estimación de parámetros poblacionales
Inferencia Estadística
Inferencia estadística
} LISSET BÁRCENAS MONTERROZA
Introducción al tema El único método científico para validar conclusiones sobre un grupo de individuos a partir de la información que nos proporciona un.
KRIGING.
METODOLOGÍA DE INVESTIGACIÓN Titular: Agustín Salvia
Estimación por Intervalos de confianza
Nombre: Israel Espinosa Jiménez Matricula: Carrera: TIC Cuatrimestre: 4 Página 1 de 5.
Distribuciones muestrales Procedimientos de muestreo
Prueba de hipótesis Equivalencia entre la prueba de hipótesis y los intervalos de confianza Valor de probabilidad Valor de probabilidad unilateral Prueba.
Tests de hipótesis Los tres pasos básicos para testear hipótesis son
UNIVERSIDAD INCA GARCILASO DE LA VEGA
Inferencia Estadística
Unidad VI: PRUEBAS DE HIPOTESIS
Unidad V: Estimación de
VARIABLE ALEATORIA Y DISTRIBUCION DE PROBABILIDAD
INTERVALO DE CONFIANZA
Distribuciones derivadas del muestreo
ESTADISTICA I CSH M. en C. Gal Vargas Neri.
Estadística Administrativa I
DISTRIBUCIONES DE MUESTREO
ESTADISTICA TEMA 12.
Unidad V: Estimación de
ESTIMACION En varios pasajes de este libro hemos planteado la dificultad que se confronta en las investigaciones, de llegar a conclusiones sobre una población.
1 M. en C. Gal Vargas Neri. 2 Planeación del curso TEMACAP.TITULODÍASSEMFEC FIN TEMA 00MOTIVACION Y PLANEACION1111/01 TEMA I1-2ESTADISTICA Y MEDICION2115/01.
Valor que toma la variable aleatoria
Distribución Normal o gaussiana
Estimación Sea una característica, un parámetro poblacional cuyo valor se desea conocer a partir de una muestra. Sea un estadístico ( función.
DISTRIBUCION NORMAL Mario Briones L. MV, MSc 2005.
Introducción La inferencia estadística es el procedimiento mediante el cual se llega a inferencias acerca de una población con base en los resultados obtenidos.
ESTADISTICA I CSH M. en C. Gal Vargas Neri.
Capítulo 7 Estimación de Parámetros Estadística Computacional
ESTIMACION POR INTERVALOS
Inferencia Estadística
Estadística para administradores
Análisis y diseño de experimentos
Función Densidad Continua (o distribución de probabilidad continua)
Repaso de clase anterior
Capítulo 1. Conceptos básicos de la Estadística
INFERENCIA ESTADÍSTICA
Teoría de Probabilidad Dr. Salvador García Lumbreras
Pruebas de hipótesis.
PRUEBAS ESTADISTICAS NO PARAMETRICAS
COMPROBACION DE HIPOTESIS SOBRE DOS PROMEDIOS Mario Briones L. MV, MSc 2005.
Estimación y contraste de hipótesis
BASES PARA EL RAZONAMIENTO EN ESTADÍSTICA INFERENCIAL
ESTIMACIÓN DE PARÁMETROS
MUESTREO ALEATORIO SIMPLE SIN REEMPLAZO (“mas”)
INTERVALO DE CONFIANZA
Prueba de Hipótesis Una hipótesis estadística es un supuesto que se establece sobre las características de una distribución poblacional El estudio se plantea.
Distribuciones de Probabilidad
Intervalos de confianza
Aspectos generales de la investigación educativa en el SNIT
CONTRASTE DE HIPÓTESIS Dimensiones Largo275mm. 169 mm 2 Ancho175mm.49 mm 2 Alto175mm.49 mm 2 Peso16 Kg.1 Kg 2. SITUACIÓN PROBLEMA.
INFERENCIA ESTADÍSTICA
UNIVERSIDAD CENTRAL DEL ECUADOR FACULTAD DE CIENCIAS ECONOMICAS INFERENCIA ESTADISTICA TEMA: ESTIMACION PUNTUAL, PROPIEDADES DE LAS ESTIMACIONES;
UNIDAD I.- Analisis 3.4 Prueba de Hipotesis.
Estimación Estadística Tares # 3. Estimación Estadística Conjunto de técnicas que permiten dar un valor aproximado de un parámetro de una población a.
Intervalos de Confianza M. C. José Juan Rincón Pasaye UMSNH – FIE Mayo de 2003.
Estadística Inferencial
Bioestadística Inferencia estadística y tamaño de muestra
Estimación estadística
Viviana Acosta Estadística II. Que es Es una distribución de probabilidad que surge del problema de estimar la media de una población normalmente distribuida.
INTERVALO DE CONFIANZA
Transcripción de la presentación:

Unidad V: Estimación de Parámetros

Propósito de la Inferencia de estadística Estimación de parámetros Pruebas de Hipótesis Puntual Intervalar Nivel de Confianza Métodos de Estimación Momentos Máximo Verosímil Propiedades Método del Pivote

Pruebas de Hipótesis Concepto Tipos de errores Hipótesis Nula Hipótesis alternativa Unilateral Bilateral Nivel de Confianza Valor-p Región Crítica Decisión

5.1 Propósito de la Inferencia de estadística Cuando se habla de obtener conclusiones respecto de una población particular, nos estamos refiriendo a algunas características distribucionales de la población, específicamente a parámetros que caracterizan la distribución poblacional. Esto significa que la inferencia en cuestión será relativa a un conjunto de parámetros poblacionales. Una muestra aleatoria de tamaño n, es cuando se tienen X1, X2,…,Xn variables aleatorias independientes, donde cada una de las Xi tiene la misma distribución de probabilidades. Si X1, X2,…, Xn es una muestra aleatoria de una variable aleatoria X, entonces se acostumbra a llamar a X variable aleatoria poblacional o sencillamente población.

El propósito en la inferencia, es utilizar los elementos de la muestra para determinar todos los aspectos desconocidos de nuestro interés, en la mejor forma posible, al considerar la distribución de probabilidades de la población. Ciertas funciones de los elementos de una muestra aleatoria tales como:

Cualquier función de los elementos de una muestra aleatoria que no dependa de algún parámetro desconocido de llama estadístico. Los estadísticos son, por lo tanto, variables aleatorias, cuyos valores observados pueden ser evaluados después que los valores observados para X1, X2,…, Xn son conocidos. Como los estadísticos son variables aleatorias, sus valores variarán de muestra en muestra y tiene sentido determinar la distribución de estas variables aleatorias, las cuales se conocen como distribuciones muestrales.

5.2 Métodos de Estimación Los problemas de inferencia estadística se dividen en dos áreas: Estimación de parámetros y Pruebas de Hipótesis. Generalmente en un problema de estimación de parámetros se dispone una muestra aleatoria de una variable poblacional X, cuya distribución de probabilidades se supone conocida, salvo por algunos parámetros que son desconocidos.

5.3 Método por momentos Propuesto por Karl Pearson (1894). Sea q(θ), una función que deseamos estimar. El método por momentos consiste en escribir la función de θ, q(θ), como una función continua h de los primeros r momentos poblacionales, esto es, donde k = E(Xk) es el k-ésimo momento poblacional; k = 1,2,…,r y luego considerar como estimador por momentos a

Ejemplo Una muestra aleatoria de n observaciones X1,…,Xn se selecciona desde una población con distribución uniforme sobre el intervalo (0, θ), en que θ es desconocido. Deseamos encontrar, mediante el método de los momentos, un estimador de θ. El valor de 1 para una variable aleatoria uniforme es 1 = E(X) = θ/2. es el primer momento muestral. Por tanto, el E. por M de θ es:

Ejemplo Supongamos que queremos estimar, por el método de momentos, la varianza, 2, de una población cualquiera X. Sabemos que: Luego, si consideramos una muestra aleatoria X1,…, Xn de esta población, tenemos que el primer estimador por momento de la varianza poblacional 2 es

5.4 Método Máximo Verosímil El método de máxima verosimilitud consiste en obtener, como estimadores, aquellos valores de los parámetros que maximizan la función de verosimilitud.

En la mayoría de los casos el estimador máximo verosímil (EMV) de θ, se puede determinar desde Dado que L(θ) es siempre no negativa y logra su máximo para el mismo valor de θ que ln(L), generalmente resulta más simple obtener el EMV de θ resolviendo:

Propiedades importantes de los EMV La extensión al caso de varios parámetros es natural. Si tenemos m parámetros, la función de verosimilitud es L(θ1,…, θm; x1,…, xn) y los EMV de θj; j = 1,…, m los obtenemos resolviendo el sistema de ecuaciones. Invarianza:

Ejemplo Supongamos que x = x1,…, xn corresponden a la realización de n ensayos Bernoulli independientes con probabilidad de éxito θ en cada ensayo, donde xi = 1 si el iésimo ensayo es un éxito y xi = 0 si es un fracaso. Queremos determinar el estimador máximo verosímil de la probabilidad de éxito θ. La función de verosimilitud de la muestra observada es: Notemos que L es igual a cero para θ = 0 y 1, y es continua para valores entre 0 y 1.

Entonces: cuya derivada es Luego, el valor de θ que maximiza l(θ; x) es la solución de la ecuación: cuya solución es:

Ejemplo Supongamos que X1,…,Xn representan los tiempos de fallas para una cierta pieza de un equipo y que los tiempos de vida son exponenciales e independientes con parámetro  (desconocido). Queremos encontrar el estimador vorsímil para . Sean x = x1,…, xn los valores observados de X1,…, Xn. La función de verosimilitud es entonces:

5.5 Distribución de la media muestral Teorema 5.1 Si X1,X2,…,Xn es una muestra aleatoria de una población X que tiene media  y varianza 2, entonces el PROMEDIO tiene valor esperado  y varianza 2/n , Teorema 5.2 Si X1,X2,…,Xn es una muestra aleatoria de una población normal de parámetros  y 2 , entonces

Recordemos que la f.g.m de una distribución normal esta dada por En efecto:

Teorema 5.3 Si X1,X2,…,Xn es una muestra aleatoria de una población infinita que tiene media  y varianza 2, entonces la distribución límite de Zn, donde es la distribución Normal estándar.

Ejemplo Una máquina puede ser regulada de modo que descargue un promedio de  kilos por hora ( desconocido). Se ha observado que la cantidad descargada por la máquina se distribuye normal con 2=1.0kg. Se selecciona al azar una muestra de tamaño n = 9 horas de descarga, pesando el total descargado en cada hora seleccionada. Se desea encontrar la probabilidad que la media muestral esté entre +/-0.3 kg. de la verdadera media . Si definimos la variable aleatoria Yi como el peso total descargado en la hora i, entonces Yi se distribuye N(,1), para todo i=1,…,9, por lo tanto, de acuerdo al Teorema 5.2

La probabilidad que deseamos determinar es utilizando las tablas de la distribución normal estándar, obtenemos Así, la probabilidad que la media muestral esté dentro de +/- 0.3 de la media poblacional  es 0.6318.

5.6 Distribución de la varianza muestral S2 Teorema 5.4 Si X1,X2,…,Xn es una muestra aleatoria de una distribución con media  y varianza 2, entonces la varianza muestral S2 tiene valor esperado igual a 2. Teorema 5.5 Sea X1,X2,…,Xn una muestra aleatoria de una población X cuya distribución es normal de media  y varianza 2, entonces:

Ejemplo Consideremos nuevamente el Ejemplo anterior y supongamos que extraemos una muestra aleatoria de tamaño n = 10. si estas observaciones son utilizadas para calcular S2, podría ser útil especificar un intervalo de valores que incluya a S2 con alta probabilidad; esto es, encontrar por ejemplo los números b1 y b2 tales que: Para así tener

Teorema 5.6 Si X1,X2,…,Xn es una muestra aleatoria de una población normal con media  y varianza 2, entonces Para aclarar confusiones con respecto al uso de la distribución Normal (estándar) y la distribución t-student, en relación a expresiones del tipo

o en el caso de la media Si el valor de  es conocido y el tamaño de n es suficientemente grande, entonces Z tendrá distribución normal estándar. Si  es desconocida y la población de donde está muestreando es normal, entonces la distribución de T será la de una t – student con (n-1) grados de libertad.

Ejemplo La resistencia a la tracción de un cable se distribuye normalmente con media  y varianza 2 ambas desconocidas. Se seleccionan al azar 6 trozos de alambre y se mide la resistencia Xi de cada uno de ellos. Deseamos encontrar la probabilidad que es equivalente a calcular

Donde Esta probabilidad corresponde aproximadamente a

5.7 Propiedades de los estimadores puntuales Es interesante establecer algunos criterios bajo los cuales la calidad de un estimador puede ser evaluada. Estos criterios definen, en general, propiedades deseables de los estimadores que nos sirven para compararlos. Sesgo: Estimadores Insesgados:

Por lo tanto, dados dos estimadores para el parámetro θ, y siendo todo el resto de las condiciones equivalentes para ambos, se elegirá siempre aquel de menor varianza.

Ejemplo La respuesta está en la desigualdad de Cramer-Rao que proporciona una cota inferior para la varianza de cualquier estimador insesgado del parámetro de una distribución de probabilidades, bajo condiciones de regularidad que incluyen:

El espacio de valores de la variable aleatoria involucrada debe ser independiente del parámetro. La función de densidad (o función de probabilidad) debe ser una función continua y diferenciable del parámetro. Teorema 5.7 (Cramer-Rao). Sea X1,…,Xn una muestra aleatoria de tamaño n de una población X con función de densidad (o función de probabilidad) f(x,θ), que depende de un parámetro θ desconocido, y satisface las condiciones de regularidad.

La cantidad I(θ) es conocida como cantidad de información o Información de Fisher. De aquí que la CCR también se conoce con el nombre de Desigualdad de Información. En la clase de estimadores insesgados, la cota inferior en la desigualdad de información es 1/I(θ), independientemente del estimador que estemos considerando. La desigualdad de Cramer-Rao se puede escribir como:

La CCR puede extenderse fácilmente para ciertas transformaciones del parámetro. Específicamente, si φ = g(θ) es una transformación uno a uno y diferenciable, entonces:

Ejemplo Sea X1, X2 una muestra aleatoria de tamaño 2 de X con distribución Exponencial de parámetro  desconocido.

Teorema 5.8

Ejemplo Sea X1,…,Xn una muestra aleatoria de una población con distribución de probabilidades con media  y varianza 2 < .

Sea X1,…,Xn una muestra aleatoria de una distribución de probabilidades con parámetro desconocido θ. T = T(X1,…,Xn) es un estadístico suficiente para θ, si y sólo si, la distribución condicional de (X1,…,Xn) dado T = t, para todo valor de t, es independiente de θ.

Ejemplo Consideremos los resultados observados de n ensayos Bernoulli independientes X1,…,Xn donde Xi = 1 con probabilidad p y es 0 con probabilidad 1 – p. Una manera de responder es observar la distribución condicional de X1,…,Xn dado T = t; esto es:

Ejemplo Sea X1,…,Xn una muestra aleatoria de una población con distribución exponencial con media ; esto es, Xi posee función de densidad. La función de verosimilitud de la muestra es la densidad conjunta

Ejemplo Sea X1,…,Xn una muestra aleatoria de una distribución uniforme en (0,θ) y determinemos un estadístico suficiente para θ. La función de verosimilitud de la muestra aleatoria es lo que es equivalente a escribir Así, tenemos la factorización donde es la función indicadora de un conjunto A.

Ejemplos: Prob.: Se registraron los siguientes datos, en días, que representan el tiempo de fabricación de un determinado producto con dos procesos distintos. Proceso 1 34 17 2.5 Proceso 2 56 19 1.8 a) Encuentre un I. de C del 95% para el tiempo promedio de fabricación del proceso 1. b) Se cree que la persona que tomó los datos en el proceso 1 no lo hizo correctamente, ya que experiencias anteriores indican que la varianza es de 12,9683. Para demostrar que S obtenida anteriormente estaba errada, se considera una nueva muestra aleatoria de 10 tiempos. ¿Cuál es la probabilidad que la varianza muestral de esta nueva muestra, supere el valor obtenido anteriormente?.

Ejemplos: Prob.: Se registraron los tiempos utilizados en la compra para 64 clientes seleccionados al azar en un supermercado local. La media y la varianza de los 64 tiempos de compra fueron 33 minutos y 256, respectivamente. Encuentre un I. de C. del 95 % para el verdadero tiempo promedio.