La descarga está en progreso. Por favor, espere

La descarga está en progreso. Por favor, espere

Hipótesis de trabajo, pruebas de hipótesis e intervalos de confianza

Presentaciones similares


Presentación del tema: "Hipótesis de trabajo, pruebas de hipótesis e intervalos de confianza"— Transcripción de la presentación:

1 Hipótesis de trabajo, pruebas de hipótesis e intervalos de confianza
Laboratorio de Bioestadística y Epidemiología, sección Ensayos Clínicos Unidad de Bioestadística Universidad Autónoma de Barcelona 2007 /

2 Jose.Rios@uab.es / Ferran.Torres@uab.es
Hipótesis de trabajo Debe estar lo más claramente formulada. Debe ser ‘estadística’ y ‘científicamente’ correcta Prohíbo circulación de camiones en Rondas. Tres semanas después encargo un estudio para ver si el número de accidentes en Rondas con camiones disminuye. Las ‘técnicas de pesca’ se han de evitar siempre. 2007 /

3 Jose.Rios@uab.es / Ferran.Torres@uab.es
Hipótesis de trabajo Por supuesto, LA HIPÓTESIS DE TRABAJO SE FORMULA CON ANTERIORIDAD A CUALQUIERA DE LOS PASOS 2007 /

4 En el fondo todo está relacionado
2007 /

5 Inferencia estadística
Pruebas estadísticas Intervalo de confianza 2007 /

6 ¿Qué es lo que busca todo el mundo?
p 2007 /

7 ¿Para qué se usa la estadística?
MUESTRA Prueba estadística Intervalo de confianza Inferir Probabilidad POBLACIÓN 2007 /

8 Jose.Rios@uab.es / Ferran.Torres@uab.es
Errores de Tipo I y II  El valor del error tipo I ó  es de 0.05 (5%)  El valor del error tipo II ó  es igual o superior a 0.20 (20%)  El poder (1 - ) es igual ó superior a 0.80 (80%) 2007 /

9 Datos categóricos. Definiciones básicas
Variable binaria: {evento,no evento} Proporciones: p = r/n suma de eventos en un grupo de individuos denominador fijo: n individuos distribución binomial Recuentos: suma de eventos raros en un periodo de tiempo o un territorio 0,1,2,…,k denominador personas-tiempo  tasas distribución Poisson 2007 /

10 Jose.Rios@uab.es / Ferran.Torres@uab.es
Datos cuantitativos Distribución de la muestra Tendencia central: X media Dispersión o variabilidad: DE desviación estándar Distribución de la media de una muestra Tendencia central: media Dispersión o variabilidad: error estándard 2007 /

11 Jose.Rios@uab.es / Ferran.Torres@uab.es
Distribución normal Distribución de la media X X X +’2’ EEM Distribución de la muestra X + ‘2’DS =>95% 2007 /

12 Jose.Rios@uab.es / Ferran.Torres@uab.es
¿p? Probabilidad de observar, por azar, una diferencia como la de la muestra o mayor, cuando H0 es cierta Es una medida de la evidencia en contra de la H0 Es el azar una explicación posible de las diferencias observadas? Supongamos que así es (H0). ¿Con qué probabilidad observaríamos unas diferencias de esa magnitud, o incluso mayor? P-valor Si P-valor pequeño, rechazamos H0. ¿Difícil?... No, es como un juicio! 2007 /

13 Jose.Rios@uab.es / Ferran.Torres@uab.es
¿p? Se acepta un valor máximo de 5% (0,05). Si p0,05  diferencias estadísticamente significativas. Si p>0,05  diferencias estadísticamente NO significativas. NO implica importancia clínica. NO implica magnitud de efecto!! Influenciada por el tamaño de la muestra. Si  n   p 2007 /

14 Jose.Rios@uab.es / Ferran.Torres@uab.es
Errores y aciertos 2007 /

15 Jose.Rios@uab.es / Ferran.Torres@uab.es
Situaciones Conclusión: Diferencias estadísticamente significativas Realidad: Hay diferencias  Acierto Realidad: No hay diferencias  Error tipo I () Conclusión: Diferencias NO estadísticamente significativas Realidad: No hay diferencias  Acierto Realidad: Hay diferencias Error tipo II () Muestra insuficiente 2007 /

16 Utilidad de Creer en la Existencia de Dios (según Pascal)
H0: Dios No Existe H1: Dios Existe 2007 /

17 Sentido/No sentido de la prueba estadística
Una o dos colas Sentido – una cola El ‘fenómeno’ existe si A es mayor que B No Sentido – dos colas El ‘fenómeno’ existe si A es diferente que B 2007 /

18 Jose.Rios@uab.es / Ferran.Torres@uab.es
Pruebas de hipótesis Unilateral (una cola) Ho: E - C  0 H1: E - C > 0 Bilateral (dos colas) Ho: E - C = 0 H1: E - C > 0 ó E - C < 0 2007 /

19 Revisión de la aplicabilidad de las distintas pruebas estadísticas
2007 /

20 Jose.Rios@uab.es / Ferran.Torres@uab.es
Normalidad MÉTODOS PARAMÉTRICOS 2007 /

21 Jose.Rios@uab.es / Ferran.Torres@uab.es
No normalidad X MÉTODOS NO PARAMÉTRICOS 2007 /

22 Pruebas paramétricas y no-paramétricas
Una prueba paramétrica requiere la estimación de uno o más parámetros (estadísticos) de la población Ej.: Una estimación de la diferencia entre la media antes y después de una intervención Las pruebas no-paramétricas no involucran ningún tipo de estimación de parámetros Ej.: Facilitarnos la una estimación de la P[X>Y], probabilidad de que, selecionando un paciente después del tratamiento, su valor sea mayor que antes del tratamiento 2007 /

23 Pruebas paramétricas y no-paramétricas
Advantage of non-parametric test No assumptions about the distribution of the data Handles every kind of outcome variable Disadvantage Non-parametric test do not have the same statistical power as parametric test do Data issues Ranks of data, not data in original units, used Effect of outliers is removed (can be good or bad) Use n-p. test when p. methods are inappropriate due to lack of distribution requirements 2007 /

24 Jose.Rios@uab.es / Ferran.Torres@uab.es
Pruebas estadísticas 2007 /

25 Jose.Rios@uab.es / Ferran.Torres@uab.es
Más chuletario V. CUANTITATIVA .vs. V. CUALITATIVA (2 grupos) V. CUANTITATIVA NO NORMAL EN ALGUN GRUPO Estadística / Pruebas no paramétricas / 2 muestras relacionadas / Wilcoxon NORMALIDAD? Estadísticos / Pruebas no paramétricas / K-S de 1 muestra / Normal COMPARACIÓN DE MEDIAS Grupos independientes apareados V. CUANTITATIVA NORMALEN AMBOS GRUPOS V. DIFERENCIA NO NORMAL 2 muestras independientes / U de Mann-Whitney Comparar medias / Prueba T para muestras independientes V. DIFERENCIA NORMAL Prueba T para muestras relacionadas 2007 /

26 NPAR TEST K-W (Kruskal-Wallis)
Más chuletario V. CUANTITATIVA .vs. V. CUALITATIVA (  2 grupos) NORMALIDAD ? (NPAR TEST K-S (NORMAL)) INDEPENDENCIA ? ASIGNACIONES ALEATORIAS HOMOSCEDASTICIDAD? H0:n ó n (TEST DE LEVENE) ANOVA SI NPAR TEST K-W (Kruskal-Wallis) NO p > 0.05 No se rechaza H0 p < 0.05 Test a posteriori --> Test de Scheffé 2007 /

27 Jose.Rios@uab.es / Ferran.Torres@uab.es
Más chuletario V. CUANTITATIVA .vs. V. CUANTITATIVA Incumplimiento de condiciones de aplicabilidad * 1 v. cuantitativa aleatoria .vs. 1 v. cuantitativa diseñada REGRESION CORRELACION Cumplimiento de condiciones de aplicabilidad * NONPAR CORR (Test de Spearman) (Normalidad de la v. cuantitativa en los grupos a comparar, homoscedasticidad) * 2 v. cuantitativas aleatorias (Normalidad de las dos v. cuantitativas en su conjunto) 2007 /

28 Análisis de la Co-varianza (ANCOVA)
Los valores que estamos comparando pueden estar afectados directamente por otros (covarianción) TA al final del estudio TA al inicio del estudio Medias ajustadas: Media al final del estudio si las TA al inicio fuesen las mismas. 2007 /

29 Intervalo de Confianza
Def.: “Si se realiza el mismo experimento en las mismas condiciones, el 95% de las veces la media que obtendremos estará entre los márgenes” Intuitivamente: “El verdadero valor se encuentra dentro del intervalo con una confianza del 95%” 2007 /

30 Jose.Rios@uab.es / Ferran.Torres@uab.es
Amplitud del IC También depende de la información que la muestra proporciona sobre el verdadero valor poblacional Mayor tamaño de muestra -> mayor precisión -> IC más estrecho Mayor dispersión de la medida -> IC más amplio 2007 /

31 Relación entre IC y significación (p)
IC al 95% p=0.05 2007 /

32 Intervalo de Confianza
2 grupos Dif. NS 2 grupos Dif. Sig. Puntualizar! 2007 /

33 Intervalo de confianza para evaluar ensayos de superioridad
Superioridad observada Superioridad no observada 2007 /

34 Jose.Rios@uab.es / Ferran.Torres@uab.es
Distribución normal Distribución de la media X X X +’2’ EEM Distribución de la muestra X + ‘2’DS =>95% 2007 /

35 Jose.Rios@uab.es / Ferran.Torres@uab.es
Estimación Un estimador es una cantidad numérica calculada sobre una muestra y que esperamos que sea una buena aproximación de cierta cantidad con el mismo significado en la población (parámetro). 2007 /

36 Jose.Rios@uab.es / Ferran.Torres@uab.es
Estimación Problema que presenta el uso de estimadores puntuales: El problema de los estimadores puntuales es que solo dan una idea de lo que puede valer el parámetro que estimamos, sin conocer como de buena es la aproximación; es decir, simplemente proporcionan un valor (de los muchos posibles) que puede proponerse como valor del parámetro. Si realizamos diversas muestras, obtendremos tantas estimaciones del parámetro como muestras 2007 /

37 Jose.Rios@uab.es / Ferran.Torres@uab.es
Estimación Ventaja de la estimación por intervalos de confianza: Se trata de asignar al parámetro poblacional desconocido, por ejemplo μ, un intervalo de valores, digamos (a, b) entre los cuales está μ con una cierta confianza (1- α). Es decir, si se cumple que diremos entonces que (a, b) es un intervalo de confianza para el parámetro μ construido al (1- a)% de confianza o, lo que es lo mismo, al a% de error. ¿INTERPRETACIÓN? 2007 /

38 Jose.Rios@uab.es / Ferran.Torres@uab.es
Estimación Por ejemplo, seleccionamos cinco muestras aleatorias de n=5 y elaboramos sus intervalos de confianza. Consideramos un nivel de confianza del 90% 2007 /

39 Jose.Rios@uab.es / Ferran.Torres@uab.es
Estimación Un último ejemplo: Una muestra de n=100 individuos de una población tiene media de peso 60 kg y desviación 5kg. Dichas cantidades pueden considerarse como aproximaciones (estimaciones puntuales) 60 kg estima a μ 5 kg estima a σ 5/raiz(n)= 0,5 estima el error estándar (típico) EE Estas son las llamadas estimaciones puntuales: un número concreto calculado sobre una muestra es aproximación de un parámetro. Una estimación por intervalo de confianza es una que ofrece un intervalo como respuesta. Además podemos asignarle una probabilidad aproximada que mida nuestra confianza en la respuesta: Hay una confianza del 68% de que μ esté en 60±0,5 Hay una confianza del 95% de que μ esté en 60±1. Ojo: He hecho un poco de trampa. ¿Quien la ve? 2007 /

40 Jose.Rios@uab.es / Ferran.Torres@uab.es
Estimación Pero hemos de tener en cuenta que todo intervalo de confianza conlleva dos noticias, la buena y la mala La buena: hemos usado una técnica que en % alto de casos acierta. La mala: no sabemos si ha acertado en nuestro caso. 2007 /

41 Para quien guste de las fórmulas
2007 /


Descargar ppt "Hipótesis de trabajo, pruebas de hipótesis e intervalos de confianza"

Presentaciones similares


Anuncios Google