La descarga está en progreso. Por favor, espere

La descarga está en progreso. Por favor, espere

Unidad VI: PRUEBAS DE HIPOTESIS

Presentaciones similares


Presentación del tema: "Unidad VI: PRUEBAS DE HIPOTESIS"— Transcripción de la presentación:

1 Unidad VI: PRUEBAS DE HIPOTESIS

2 Propósito de la Inferencia de estadística
Estimación de parámetros Pruebas de Hipótesis Puntual Intervalar Nivel de Confianza Métodos de Estimación Momentos Máximo Verosímil Propiedades Método del Pivote

3 Pruebas de Hipótesis Concepto Tipos de errores Hipótesis Nula Hipótesis alternativa Unilateral Bilateral Nivel de Confianza Valor-p Región Crítica Decisión

4 6. PRUEBAS DE HIPÓTESIS En muchos aspectos, el procedimiento para probar hipótesis es similar al método científico: Un científico observa la naturaleza de un fenómeno, formula una teoría y a continuación, confronta esta teoría con la evidencia observada. Si lo observado no está de acuerdo con la teoría, se rechaza la hipótesis. En caso contrario, se pueden obtener dos conclusiones: la teoría es verdadera o bien la muestra no detectó diferencias importantes o significativas entre los valores reales y los postulados en la hipótesis planteada, lo que podría considerarse como un rechazo de la teoría. Por ejemplo, un ingeniero podría formular la hipótesis que cierto tratamiento puede eliminar las fallas de un determinado material. Para probar su hipótesis, selecciona aleatoriamente cierto número de elementos defectuosos dividiéndolos al azar en dos grupos. El tratamiento nuevo es aplicado al primer grupo y otro tratamiento es aplicado al segundo. A continuación, basándose en el número de unidades recuperadas, deberá decidir si el nuevo tratamiento es mejor que el anterior.

5

6 Creo que la edad media es 40 años...
Contrastando una hipótesis Son demasiados... Creo que la edad media es 40 años... ¡Gran diferencia! Rechazo la hipótesis Muestra aleatoria

7 Creo que el porcentaje de elementos defectuosos será el 5%
¿Qué es una hipótesis? Creo que el porcentaje de elementos defectuosos será el 5% Una creencia sobre la población, principalmente sus parámetros: Media Varianza Proporción/Tasa OJO: Si queremos contrastarla, debe establecerse antes del análisis.

8 Hipótesis alternativa: H1
6.1 Elementos de una prueba de hipótesis Hipótesis estadística: es una afirmación o conjetura acerca de los parámetros de la distribución de probabilidades de una población. Si la hipótesis estadística específica completamente la distribución, entonces ella se llama Hipótesis Simple, de otra manera se llama Hipótesis Compuesta. Elementos de una prueba de hipótesis: Hipótesis nula: Ho La que contrastamos Los datos pueden refutarla No debería ser rechazada sin una buena razón. Hipótesis alternativa: H1 Niega a H0 Los datos pueden mostrar evidencia a favor No debería ser aceptada sin una gran evidencia a favor.

9 Elementos de una prueba de hipótesis:
El estadístico de prueba, T(X), (lo mismo que un estimador) es una función de la muestra. Interesa que contenga el máximo de información sobre la hipótesis nula planteada ya que, en base a la información contenida en esta función, se tomará la decisión respecto de la aceptación o rechazo de la hipótesis, H0, planteada. La zona de rechazo, o región crítica (RC), define los valores del estadístico de prueba para los cuales la información muestral contradice la hipótesis nula. Estos valores nos permitirán adoptar una regla de decisión consistente. Una prueba de una hipótesis estadística es una regla o procedimiento que permite decidir el rechazo de la hipótesis nula. De esta manera, como una regla de decisión, si para una muestra particular el estadístico de prueba (valor calculado) cae dentro de la región crítica, rechazaremos la hipótesis nula en favor de la hipótesis alternativa. En cambio, si el valor calculado no cae dentro de la RC, no podremos rechazar la hipótesis nula.

10 Región crítica y nivel de significación
Valores ‘improbables’ si... Es conocida antes de realizar el experimento: resultados experimentales que refutarían H0 Nivel de significación: a Número pequeño: 1% , 5% Fijado de antemano por el investigador Es la probabilidad de rechazar H0 cuando es cierta a=5% Reg. Crit. Reg. Crit. No rechazo H0 H0: m1= m2

11 Contrastes: unilateral y bilateral
La posición de la región crítica depende de la hipótesis alternativa Bilateral H1: m1¹m2 Unilateral H1: m1<m2 Unilateral H1: m1>m2

12 Significación: p a H0: m=40

13 Significación: p No se rechaza H0: m=40 a H0: m=40

14 P P Significación: p a a No se rechaza H0: m=40
Es la probabilidad que tendría una región crítica que comenzase exactamente en el valor del estadístico obtenido de la muestra. Es la probabilidad de tener una muestra que discrepe aún más que la nuestra de H0. Es la probabilidad de que por puro azar obtengamos una muestra “más extraña” que la obtenida. p es conocido después de realizar el experimento aleatorio El contraste es no significativo cuando p>a P a No se rechaza H0: m=40 P a

15 Significación : p Se rechaza H0: m=40 Se acepta H1: m>40 a

16 Significación : p El contraste es estadísticamente significativo cuando p<a Es decir, si el resultado experimental discrepa más de “lo tolerado” a priori. a P Se rechaza H0: m=40 Se acepta H1: m>40 a P

17 Resumen: a, p y criterio de rechazo
Sobre a Es número pequeño, preelegido al diseñar el experimento Conocido a sabemos todo sobre la región crítica Sobre p Es conocido tras realizar el experimento Conocido p sabemos todo sobre el resultado del experimento Sobre el criterio de rechazo Contraste significativo = p menor que a

18 Riesgos al contrastar hipótesis
Ejemplo 2: Se cree que un nuevo tratamiento ofrece buenos resultados Ejemplo 3: Parece que hay una incidencia de enfermedad más alta de lo normal H0: Hipótesis nula (Ej.1) Es inocente (Ej.2) El nuevo tratamiento no tiene efecto (Ej.3) No hay nada que destacar H1: Hipótesis alternativa (Ej.1) Es culpable (Ej.2) El nuevo tratamiento es útil (Ej. 3) Hay una situación anormal No especulativa Especulativa

19 Tipos de error al tomar una decisión
Realidad Inocente Culpable veredicto OK Error Menos grave Muy grave

20 Tipos de error al contrastar hipótesis
Realidad H0 cierta H0 Falsa No Rechazo H0 Correcto El tratamiento no tiene efecto y así se decide. Error de tipo II El tratamiento si tiene efecto pero no lo percibimos. Probabilidad β Rechazo H0 Acepto H1 Error de tipo I El tratamiento no tiene efecto pero se decide que sí. Probabilidad α El tratamiento tiene efecto y el experimento lo confirma.

21 Recordad lo que pasaba con sensiblidad y especificidad
No se puede tener todo Recordad lo que pasaba con sensiblidad y especificidad b a Para un tamaño muestral fijo, no se pueden reducir a la vez ambos tipos de error. Para reducir b, hay que aumentar el tamaño muestral.

22 Conclusiones Las hipótesis no se plantean después de observar los datos. En ciencia, las hipótesis nula y alternativa no tienen el mismo papel: H0 : Hipótesis científicamente más simple. H1 : El peso de la prueba recae en ella. α debe ser pequeño Rechazar una hipótesis consiste en observar si p<α Rechazar una hipótesis no prueba que sea falsa. Podemos cometer error de tipo I No rechazar una hipótesis no prueba que sea cierta. Podemos cometer error de tipo II Si decidimos rechazar una hipótesis debemos mostrar la probabilidad de equivocarnos.

23

24 La probabilidad que deseamos determinar es
utilizando las tablas de la distribución normal estándar, obtenemos Así, la probabilidad que la media muestral esté dentro de +/- 0.3 de la media poblacional  es

25 5.6 Distribución de la varianza muestral S2
Teorema 5.4 Si X1,X2,…,Xn es una muestra aleatoria de una distribución con media  y varianza 2, entonces la varianza muestral S2 tiene valor esperado igual a 2. Teorema 5.5 Sea X1,X2,…,Xn una muestra aleatoria de una población X cuya distribución es normal de media  y varianza 2, entonces:

26 Ejemplo Consideremos nuevamente el Ejemplo anterior y supongamos que extraemos una muestra aleatoria de tamaño n = 10. si estas observaciones son utilizadas para calcular S2, podría ser útil especificar un intervalo de valores que incluya a S2 con alta probabilidad; esto es, encontrar por ejemplo los números b1 y b2 tales que: Para así tener

27 Teorema 5.6 Si X1,X2,…,Xn es una muestra aleatoria de una población normal con media  y varianza 2, entonces Para aclarar confusiones con respecto al uso de la distribución Normal (estándar) y la distribución t-student, en relación a expresiones del tipo

28 o en el caso de la media Si el valor de  es conocido y el tamaño de n es suficientemente grande, entonces Z tendrá distribución normal estándar. Si  es desconocida y la población de donde está muestreando es normal, entonces la distribución de T será la de una t – student con (n-1) grados de libertad.

29 Ejemplo La resistencia a la tracción de un cable se distribuye normalmente con media  y varianza 2 ambas desconocidas. Se seleccionan al azar 6 trozos de alambre y se mide la resistencia Xi de cada uno de ellos. Deseamos encontrar la probabilidad que es equivalente a calcular

30 Donde Esta probabilidad corresponde aproximadamente a

31 5.7 Propiedades de los estimadores puntuales
Es interesante establecer algunos criterios bajo los cuales la calidad de un estimador puede ser evaluada. Estos criterios definen, en general, propiedades deseables de los estimadores que nos sirven para compararlos. Sesgo: Estimadores Insesgados:

32 Por lo tanto, dados dos estimadores para el parámetro θ, y siendo todo el resto de las condiciones equivalentes para ambos, se elegirá siempre aquel de menor varianza.

33 Ejemplo La respuesta está en la desigualdad de Cramer-Rao que proporciona una cota inferior para la varianza de cualquier estimador insesgado del parámetro de una distribución de probabilidades, bajo condiciones de regularidad que incluyen:

34 El espacio de valores de la variable aleatoria involucrada debe ser independiente del parámetro.
La función de densidad (o función de probabilidad) debe ser una función continua y diferenciable del parámetro. Teorema 5.7 (Cramer-Rao). Sea X1,…,Xn una muestra aleatoria de tamaño n de una población X con función de densidad (o función de probabilidad) f(x,θ), que depende de un parámetro θ desconocido, y satisface las condiciones de regularidad.

35 La cantidad I(θ) es conocida como cantidad de información o Información de Fisher. De aquí que la CCR también se conoce con el nombre de Desigualdad de Información. En la clase de estimadores insesgados, la cota inferior en la desigualdad de información es 1/I(θ), independientemente del estimador que estemos considerando. La desigualdad de Cramer-Rao se puede escribir como:

36 La CCR puede extenderse fácilmente para ciertas transformaciones del parámetro. Específicamente, si φ = g(θ) es una transformación uno a uno y diferenciable, entonces:

37

38 Ejemplo Sea X1, X2 una muestra aleatoria de tamaño 2 de X con distribución Exponencial de parámetro  desconocido.

39

40 Teorema 5.8

41 Ejemplo Sea X1,…,Xn una muestra aleatoria de una población con distribución de probabilidades con media  y varianza 2 < .

42 Sea X1,…,Xn una muestra aleatoria de una distribución de probabilidades con parámetro desconocido θ. T = T(X1,…,Xn) es un estadístico suficiente para θ, si y sólo si, la distribución condicional de (X1,…,Xn) dado T = t, para todo valor de t, es independiente de θ.

43 Ejemplo Consideremos los resultados observados de n ensayos Bernoulli independientes X1,…,Xn donde Xi = 1 con probabilidad p y es 0 con probabilidad 1 – p. Una manera de responder es observar la distribución condicional de X1,…,Xn dado T = t; esto es:

44

45 Ejemplo Sea X1,…,Xn una muestra aleatoria de una población con distribución exponencial con media ; esto es, Xi posee función de densidad. La función de verosimilitud de la muestra es la densidad conjunta

46 Ejemplo Sea X1,…,Xn una muestra aleatoria de una distribución uniforme en (0,θ) y determinemos un estadístico suficiente para θ. La función de verosimilitud de la muestra aleatoria es lo que es equivalente a escribir Así, tenemos la factorización donde es la función indicadora de un conjunto A.

47 Ejemplos: Prob.: Se registraron los siguientes datos, en días, que representan el tiempo de fabricación de un determinado producto con dos procesos distintos. Proceso Proceso a) Encuentre un I. de C del 95% para el tiempo promedio de fabricación del proceso 1. b) Se cree que la persona que tomó los datos en el proceso 1 no lo hizo correctamente, ya que experiencias anteriores indican que la varianza es de 12,9683. Para demostrar que S obtenida anteriormente estaba errada, se considera una nueva muestra aleatoria de 10 tiempos. ¿Cuál es la probabilidad que la varianza muestral de esta nueva muestra, supere el valor obtenido anteriormente?.

48 Ejemplos: Prob.: Se registraron los tiempos utilizados en la compra para 64 clientes seleccionados al azar en un supermercado local. La media y la varianza de los 64 tiempos de compra fueron 33 minutos y 256, respectivamente. Encuentre un I. de C. del 95 % para el verdadero tiempo promedio.


Descargar ppt "Unidad VI: PRUEBAS DE HIPOTESIS"

Presentaciones similares


Anuncios Google