Bioestadística Inferencia estadística y tamaños de muestra para una y dos o más medias.

Slides:



Advertisements
Presentaciones similares
La distribución t es una distribución de probabilidad que surge del problema de estimar la media de una población normalmente distribuida cuando el tamaño.
Advertisements

PRESENTADO POR: JOHANNA ANDREA RODRIGUEZ MORENO.  Descubierta por William S. en 1908, la distribución de T normalmente se llama distribución de t de.
Paola arias Estadística II.  Fue descrita en 1908 por William sealy gosset  Es una distribución de probabilidad que se emplea comúnmente cuando tenemos.
Presentado por Karina Yuliet Preciado Mosquera Estadística II.
T – Student teoria de las muestras pequeñas Paola Andrea Palacio Montero Estadística.
PRINCIPIOS DE ESTADÍSTICAS INFERENCIALES PRUEBA DE HIPÓTESIS: MUESTRAS PEQUEÑAS.
Bioestadística Escala Cuantitativa.. Trabajadores en una fábrica. RegistroSexoEdad (años)Talla (m)Peso (kg) 1Fem Masc Masc
Estadística inferencial. ¿Qué es? La Estadística inferencial o Inferencia estadística estudia cómo sacar conclusiones generales para toda la población.
Introducción a las No-Paramétricas Chi-Cuadrada χ 2 Maestría de Salud Pública Universidad de Xochicalco 2º Semestre 5 de Junio del 2009 Dr Burgos Dra.
Bioestadística Distribuciones muestrales para variables cuantitativas.
Catalina Canals Cifuentes 21/03/2016 Modulo 3. Introducción a las pruebas de hipótesis Facultad de Ciencias Sociales Departamento de Sociología Estadística.
Estimación e intervalos de confianza. Estimaciones puntuales e intervalos de confianza Estimación puntual: Estadístico calculado a partir de la información.
PRUEBA DE RANGO CON SIGNO DE WILCOXON Una empresa desea remplazar el sabor tradicional de su producto, por uno nuevo, para lo cual necesita determinar.
Recordatorio Estadística Paramétrica Se basa en el conocimiento que los datos presentan una distribución estadística conocida y cada distribución tiene.
INFERENCIA ESTADÍSTICA
ESTADÍSTICA INFERENCIAL
Capitulo 3 Análisis descriptivo inferencial: comparaciones de muestras
DISTRIBUCION F DE FISHER.
PRUEBA DE HIPÓTESIS: MUESTRAS PEQUEÑAS
PRUEBAS DE BONDAD DE AJUSTE estas pruebas permiten verificar que la población de la cual proviene una muestra tiene una distribución especificada o supuesta.
Bioestadística Distribuciones de probabilidad y distribuciones muestrales para variables cualitativas: la distribución binomial.
PRUEBA DE SIGNIFICANCIA
7.1 Procedimientos paramétricos para datos cuantitativos
DISTRIBUCIONES EN EL MUESTREO
Inferencia estadística.
EjEMPLO de diseños experimentales
INFERENCIA ESTADÍSTICA PARA DOS POBLACIONES
ESTADISTICA II UNIDAD I 3RA PARTE.
Análisis de Varianza Permite probar la significancia de las diferencias entre más de dos medias muestrales. Usando el análisis de varianza, se puede hacer.
ANALISIS DE LA VARIANZA PROF. GERARDO A. VALDERRAMA M.
Christian Alave Rosas UNIVERSIDAD JORGE BASADRE GROHMANN BIOLOGÍA - MICROBIOLOGÍA Diseños experimentales Christian Alave Rosas
Análisis de datos Introducción al análisis de datos
ELECCIÓN Y USO DE LA PRUEBA ESTADÍSTICA
Distribuciones muestrales e Intervalos de Confianza
¿Son nuestros resultados suficientemente confiables para dar soporte a nuestra hipótesis? ¿Podemos rechazar la hipótesis nula?
Distribución normal o de Gauss
INTERVALO DE CONFIANZA
PRUEBA DE HIPÓTESIS DE MEDIAS DE UNA MUESTRA ÚNICA GRANDE
Análisis of varianza (ANOVA) De un factor o unidireccional
DISTRIBUCIÓN MUESTRAL DE UNA MEDIA.
VARIABLE INDEPENDIENTE Cualitativa dicotómica
CONTENIDO Teoría del muestreo ¿Cómo seleccionar una muestra?
Intervalos de confianza Muestras pequeñas
ESTADÍSTICA BÁSICA.
ANALISIS DE VARIANZA
TEMA 1.- INTRODUCCIÓN A LA INFERENCIA
DISEÑO Y ANALISIS DE EXPERIMENTOS
PROBABILIDAD Y ESTADISTICA APLICADA A LOS NEGOCIOS
DISEÑO Y ANALISIS DE EXPERIMENTOS
Universidad Nacional del Litoral
PARA LA REGRESIÓN LINEAL SIMPLE
Dr. Carlomagno Araya Alpízar
TEMA 3: MUESTREO Y ESTIMACIÓN
Regresión y Correlación Múltiple: Prueba de hipótesis.
INTRODUCCION A LOS CONTRASTES BASADOS EN RANGOS
7. Procedimientos paramétricos para datos cuantitativos
Tema 7b Tests estadísticos habituales (con variable cualitativa)
DISEÑO Y ANALISIS DE EXPERIMENTOS
INTRODUCCION A LOS CONTRASTES BASADOS EN RANGOS
“Medidas de dispersión”
"it is necessary to remember the adjective 'random' [in the term 'random sample'] should apply to the method of drawing the sample and not to the sample.
Contraste de hipótesis
ESTADISTICOS Y DISTRIBUCIONES MUESTRALES
BIOESTADISTICA I UNIDAD: INFERENCIA ESTADISTICA EJERCICIOS Y PROBLEMAS
HERNANDEZ RUIZ ROCIO KRUSKAL WALLIS. PRUEBAS K PARA MUESTRAS INDEPENDIENTES Este contraste permite decidir si puede aceptarse la hipótesis de que k muestras.
PRUEBA DE HIPOTESIS ESTADISTICA
U de Mann Whitney.
DISEÑO Y ANALISIS DE EXPERIMENTOS
PRUEBA DE HIPOTESIS ESTADISTICA
Transcripción de la presentación:

Bioestadística Inferencia estadística y tamaños de muestra para una y dos o más medias.

PH: µ. Prueba de hipótesis para una media. Podremos probar esta hipótesis cuando tengamos conocimiento del parámetro (media) poblacional. Peso promedio entre los recién nacidos: 3,000 g. H0 H1 µ0 = 3,000 g µ0 ≠ 3,000 g µ0 ≥ 3,000 g µ0 < 3,000 g µ0 ≤ 3,000 g µ0 > 3,000 g Procedimiento: Planteamiento de la hipótesis. Nivel de significancia: α = 0.05 Estadístico pertinente: 𝑥

Estadísticos de prueba PH: µ. Procedimiento. Estadísticos de prueba y restricciones. Estadísticos de prueba Restricciones Distribución normal 𝑍= 𝑥 −𝜇 𝜎 2 𝑛 Población con distribución aproximadamente normal, o n > 30. Distribución t 𝑡= 𝑥 −𝜇 𝑠 2 𝑛 Población con distribución aproximadamente normal.

PH: µ. Ejemplo. Ejemplo de t para µ. H0: µ0 = 3,000 g; α = 0.05; t = ?.

PH: µ. Hay una distribución t para cada grado de libertad. Grados de libertad (gl) = n - 1

PH: µ. Ejemplo Ejemplo de t para µ. H0: µ 0 = 3,000 g; α = 0.05. n = 30; 𝑥 = 3,050; s = 475. t1-α/2, gl = t0.975, 29 = 2.045 t = 𝑥 −𝜇 𝑠 2 𝑛 = 3050−3000 475 2 30 = 50 86.72 =0.58 Comparando el valor t calculado (0.58) con el de la distribución t (2.045) aceptamos la hipótesis nula. Concluimos que no encontramos diferencia estadísticamente significativa.

PH: µ. Ejercicio. Prueba de hipótesis. H0: µ0 = 600 g; α = 0.05. n = 75; 𝑥 = 655; s = 255.

PH: µ. Ejercicio. Prueba de hipótesis. H0: µ0 = 600 g; α = 0.05. n = 75; 𝑥 = 655; s = 225. t = 𝑥 −𝜇 𝑠 2 𝑛 = 655−600 225 2 75 = 55 25.98 =2.12 Comparando el valor t calculado (2.12) con el de la distribución t (1.995) rechazamos la hipótesis nula. Concluimos que la diferencia es estadísticamente significativa.

IC: µ. Intervalo de confianza para una media cuando la población se distribuye normalmente. No es indispensable conocer el parámetro (media) poblacional. Procedimiento. Se calcula 𝑥 , que es la proporción de una sola muestra. Se estima 𝜎 𝑥 = 𝜎 2 /𝑛 mediante 𝑠 2 /𝑛 Se selecciona el nivel de confianza, mediante (1 – α)100. Se busca el valor de t para (1 – α)100 con n-1 grados de libertad. Se construye el IC mediante 𝑥 ±𝑡 1−𝛼/2 𝑠 2 /𝑛

IC: µ. Ejercicio. Intervalo de confianza del 95%. α = 0.05. n = 75; 𝑥 = 655; s = 225. 𝑥 ± 𝑧 1−𝛼/2 𝑠 2 𝑛 =655± 𝑧 1−𝛼/2 225 2 75 =655±2.00(25.98) Límite inferior, 655-2.00*25.98 = 603.18 Límite superior, 655+2.00*25.98 = 706.82

IC en www.OpenEpi.com - Variables continuas – IC Media. Si el muestreo se realiza con remplazo, el tamaño de la población no se modifica. El nivel de confianza se puede modificar a voluntad.

IC en www.OpenEpi.com - Variables continuas – IC Media. Si para el cálculo del Intervalo de confianza se utilizó la desviación estándar poblacional, se toma el IC con la prueba de z, en caso contrario, será con la prueba de t.

Tamaño de muestra para µ. Cuando el muestreo se realiza con remplazo, o cuando la muestra es pequeña en relación al universo (n ≤ N (0.05), el tamaño de la muestra se calcula mediante: 𝑛= 𝑍 2 𝜎 2 𝑑 2 Donde: Zα = valor de Z en la distribución normal para el nivel de significancia, α, seleccionado. 𝜎 2 = varianza en el grupo que se quiere estudiar. d = mitad de rango del intervalo de confianza

Tamaño de muestra para µ: Ejemplo. Calcular el tamaño de una muestra para estudiar la media del peso al nacer: Zα = Z0.05 = 1.96. (El valor de Z define el 95% del área debajo de la curva) 𝜎 2 = varianza del peso al nacer = 5002 g d = 50 g (si estuviera interesado en un rango del intervalo de confianza de 100 g) 𝑛= 𝑍 2 𝜎 2 𝑑 2 = 1.96 2 ∗ 500 2 50 2 =384.2<385

Tamaño de muestra para µ: Ejemplo. Cómo estimar la desviación estándar: Buscar alguna referencia en la literatura que describa la distribución de la variables en estudio. Realizar una prueba piloto. Mediante la fórmula rango/4 se puede obtener una aproximación “sobrada”.

Tamaño de muestra para µ: Ejercicio 1. Calcular el tamaño de una muestra para estudiar la media de una población: Zα = Z0.05 = 1.96. (El valor de Z define el 95% del área debajo de la curva) s = desviación estándar = 20 d = 10 (si estuviera interesado en un rango del intervalo de confianza de 20)

Tamaño de muestra para µ: Ejercicio 1. Calcular el tamaño de una muestra para estudiar la media de una población: Zα = Z0.05 = 1.96. (El valor de Z define el 95% del área debajo de la curva) s = desviación estándar = 20 d = 10 (si estuviera interesado en un rango del intervalo de confianza de 20) 𝑛= 𝑍 2 𝜎 2 𝑑 2 = 1.96 2 ∗ 20 2 10 2 =15.4<16

Tamaño de muestra para µ: Ejercicio 2. Calcular el tamaño de una muestra para estudiar la media de una población: Zα = Z0.05 = 1.96. (El valor de Z define el 95% del área debajo de la curva) σ = no se conoce. Se sabe que el valor máximo es 5,000, y el mínimo es 3,000 d = 50 g (si estuviera interesado en un rango del intervalo de confianza de 100)

Tamaño de muestra para µ: Ejercicio 2. Calcular el tamaño de una muestra para estudiar la media de una población: Zα = Z0.05 = 1.96. (El valor de Z define el 95% del área debajo de la curva) σ ≥ rango/4 = (5,000 - 3,000) / 4 = 500 d = 50 g (si estuviera interesado en un rango del intervalo de confianza de 100) 𝑛= 𝑍 2 𝜎 2 𝑑 2 = 1.96 2 ∗ 500 2 50 2 =384.2<385

Tamaño de muestra para µ. Cuando el muestreo se realiza sin remplazo y la muestra es grande en relación al universo (n > N (0.05), el tamaño de la muestra se calcula mediante: 𝑛´= 𝑛 1+ 𝑛 𝑁 Donde: n´ = Tamaño de la muestra sin remplazo. n = Tamaño de muestra con remplazo, 𝑛= 𝑍 2 𝜎 2 𝑑 2 N = Tamaño de la población.

PH: µ1=µ2. Muestras independientes. Prueba de hipótesis para la diferencia de dos proporciones. No se requiere conocer la proporción poblacional. Procedimiento: Planteamiento de la hipótesis. Nivel de significancia: α = 0.05. Estadístico pertinente: 𝑥 1 − 𝑥 2 H0 H1 μ1 = μ2 μ1 ≠ μ2 μ1 ≥ μ2 μ1 < μ2 μ1 ≤ μ2 μ1 > μ2

PH: µ1=µ2. Muestras independientes. Procedimiento. Estadísticos de prueba y restricciones. Estadísticos de prueba Restricciones Distribución normal 𝑡 𝑛 1 + 𝑛 2 −2 = 𝑥 1 − 𝑥 2 𝑆𝑝 2 𝑛 1 + 𝑆𝑝 2 𝑛 2 Distribución aproximadamente normal Muestras independientes. Se desconoce la varianza, pero se supone es la misma en las dos poblaciones. Análisis de varianza Prueba de Mann-Whitney-Wilcoxon Prueba de Kruskal-Wallis

PH: µ1=µ2. Muestras independientes. Z para μ1 – μ2. Bajo el supuesto de la hipótesis nula (μ1 = μ2) las dos varianzas muestrales ( 𝑠 1 2 y 𝑠 2 2 ) se obtuvieron en la misma población. Por lo tanto, las dos tienen la misma varianza poblacional. Como la varianza poblacional es desconocida, esta se estima mediante una varianza ponderada considerando las dos muestras mediante la fórmula 𝑆𝑝 2 = 𝑠 1 2 𝑛 1 −1 + 𝑠 2 2 ( 𝑛 2 −1) 𝑛 1 + 𝑛 2 −2

PH: µ1=µ2. Muestras independientes. Ejemplo de t para µ1–µ2. H0: µ1 = µ2; α = 0.05. Estadístico pertinente: 𝑥 1 − 𝑥 2 . n1 = 50, 𝑥 1 = 30, s1 = 5.2 n2 = 55, 𝑥 2 = 25, s2 = 4.9

PH: µ1=µ2. Muestras independientes. Ejemplo de t para µ1–µ2. H0: µ1 = µ2; α = 0.05. Estadístico pertinente: 𝑥 1 − 𝑥 2 . n1 = 50, 𝑥 1 = 30, s1 = 5.2 n2 = 55, 𝑥 2 = 25, s2 = 4.9 Las desviaciones estándar muestrales son diferentes, pero eso podría explicarse por el azar. Para tener alguna seguridad de que proceden de la misma población realizamos una prueba de F, donde 𝐹 𝑣 1 , 𝑣 2 = 𝑠 1 2 𝑠 2 2 Donde v1 = n1 – 1, y v2 = n2 – 1 grados de libertad

Distribución F. La distribución F es una familia de distribuciones, determinada por sus grados de libertad tanto en el numerador (v1=n1–1) como en el denominador (v2=n2–1).

Distribución F. Valor crítico en la distribución F Buscar la tabla para F1-α Buscar la columna para los grados de libertad en el numerador (v1) Buscar el renglón para los grados de libertad en el denominador (v2)

PH: σ1=σ2. Muestras independientes. Ejemplo de F para σ1/σ2. H0: σ1 = σ2; α = 0.05. Estadístico pertinente: 𝐹 𝑣 1 , 𝑣 2 = 𝑠 1 2 𝑠 2 2 = 5.2 2 4.9 2 = 27.04 24.01 =1.13 Valor crítico de la distribución F para α = 0.05, v1 = 49, v2 = 54 Como F calculado (1.13) es menor que el valor crítico de F (1.69), aceptamos la hipótesis nula. Concluimos que las varianzas no muestran una diferencia estadísticamente significativa.

PH: µ1=µ2. Muestras independientes. Ejemplo de t para µ1–µ2. H0: µ1 = µ2; α = 0.05. Estadístico pertinente: 𝑥 1 − 𝑥 2 . n1 = 50, 𝑥 1 = 30, s1 = 5.2 n2 = 55, 𝑥 2 = 25, s2 = 4.9 Si consideramos que las varianzas son iguales, entonces 𝑆𝑝 2 = 𝑠 1 2 𝑛 1 −1 + 𝑠 2 2 ( 𝑛 2 −1) 𝑛 1 + 𝑛 2 −2 = 5.2 2 ∗49+ 4.9 2 ∗54 50+55−2 =25.451 Luego 𝑡= 𝑥 1 − 𝑥 2 𝑆𝑝 2 𝑛 1 + 𝑆𝑝 2 𝑛 2 = 30−25 25.451 50 + 25.451 55 = 5 0.986 =5.07

PH: µ1=µ2. Muestras independientes. Ejemplo de t para µ1–µ2. Buscamos el valor crítico en la tabla de t para 1 - α/2 = 0.05, y n1 + n2 – 2 = 50 + 55 – 2 = 103 grados de libertad

PH: µ1=µ2. Muestras independientes. Ejemplo de t para µ1–µ2. H0: µ1 = µ2; α = 0.05. Estadístico pertinente: 𝑥 1 − 𝑥 2 . n1 = 50, 𝑥 1 = 30, s1 = 5.2 n2 = 55, 𝑥 2 = 25, s2 = 4.9 Valor calculado de t = 5.07 Valor crítico de t = 1.98 Rechazamos la hipótesis nula. Concluirnos que existe una diferencia estadísticamente significativa.

PH: Análisis de Varianza (ANOVA). H0: μ1 = μ2 = … = μk; o todas las medias son iguales. Grupo 1 Grupo 2 Grupo 3 41 45 25 22 40 36 20 37 21 34 35 26 28 38 30 48 43 23 55 39 24 31 47 Media 34.000 29.500 39.000 34.167 Varianza 83.818 62.273 53.636 78.257

PH: Análisis de Varianza (ANOVA). H0: μ1 = μ2 = … = μk; o todas las medias son iguales. Grupo 1 Grupo 2 Grupo 3 41 45 25 22 40 36 20 37 21 34 35 26 28 38 30 48 43 23 55 39 24 31 47 Media 34.167 Varianza 78.257

PH: Análisis de Varianza (ANOVA). H0: μ1 = μ2 = … = μk; o todas las medias son iguales. Grupo 1 Grupo 2 Grupo 3 41 45 25 22 40 36 20 37 21 34 35 26 28 38 30 48 43 23 55 39 24 31 47 Media 34.167 Varianza 78.257 𝑠 𝑇 2 = ( 𝑦 𝑖𝑗 − 𝑦 ) 2 𝑛−1

PH: Análisis de Varianza (ANOVA). H0: μ1 = μ2 = … = μk; o todas las medias son iguales. Grupo 1 Grupo 2 Grupo 3 41 45 25 22 40 36 20 37 21 34 35 26 28 38 30 48 43 23 55 39 24 31 47 Media 34.167 Varianza 78.257 𝑠 𝑇 2 = ( 𝑦 𝑖𝑗 − 𝑦 ) 2 𝑛−1

PH: Análisis de Varianza (ANOVA). H0: μ1 = μ2 = … = μk; o todas las medias son iguales. Grupo 1 Grupo 2 Grupo 3 41 45 25 22 40 36 20 37 21 34 35 26 28 38 30 48 43 23 55 39 24 31 47 Media 34.000 29.500 39.000 34.167 Varianza 83.818 62.273 53.636 78.257 𝑠 𝑇 2 = ( 𝑦 𝑖𝑗 − 𝑦 ) 2 𝑛−1

PH: Análisis de Varianza (ANOVA). H0: μ1 = μ2 = … = μk; o todas las medias son iguales. Grupo 1 Grupo 2 Grupo 3 41 45 25 22 40 36 20 37 21 34 35 26 28 38 30 48 43 23 55 39 24 31 47 Media 34.000 29.500 39.000 34.167 Varianza 83.818 62.273 53.636 78.257 𝑠 𝑇 2 = ( 𝑦 𝑖𝑗 − 𝑦 ) 2 𝑛−1 𝑠 𝑇𝑅 2 = 𝑛 𝑗 ( 𝑦 .𝑗 − 𝑦 ) 2 𝑘−1

PH: Análisis de Varianza (ANOVA). H0: μ1 = μ2 = … = μk; o todas las medias son iguales. Grupo 1 Grupo 2 Grupo 3 41 45 25 22 40 36 20 37 21 34 35 26 28 38 30 48 43 23 55 39 24 31 47 Media 34.000 29.500 39.000 34.167 Varianza 83.818 62.273 53.636 78.257 𝑠 𝑇 2 = ( 𝑦 𝑖𝑗 − 𝑦 ) 2 𝑛−1 𝑠 𝑇𝑅 2 = 𝑛 𝑗 ( 𝑦 .𝑗 − 𝑦 ) 2 𝑘−1 𝑠 𝐸 2 = ( 𝑦 𝑖𝑗 − 𝑦 .𝑗 ) 2 𝑛−𝑘

PH: Análisis de Varianza (ANOVA). H0: μ1 = μ2 = … = μk; o todas las medias son iguales. Grupo 1 Grupo 2 Grupo 3 41 45 25 22 40 36 20 37 21 34 35 26 28 38 30 48 43 23 55 39 24 31 47 Media 34.000 29.500 39.000 34.167 Varianza 83.818 62.273 53.636 78.257 𝑠 𝑇 2 = ( 𝒚 𝒊𝒋 − 𝒚 ) 𝟐 𝑛−1 𝑠 𝑇𝑅 2 = 𝒏 𝒋 ( 𝒚 .𝒋 − 𝒚 ) 𝟐 𝑘−1 𝑠 𝐸 2 = ( 𝒚 𝒊𝒋 − 𝒚 .𝒋 ) 𝟐 𝑛−𝑘

PH: Análisis de Varianza (ANOVA). H0: μ1 = μ2 = … = μk; o todas las medias son iguales. Grupo 1 Grupo 2 Grupo 3 41 45 25 22 40 36 20 37 21 34 35 26 28 38 30 48 43 23 55 39 24 31 47 Media 34.000 29.500 39.000 34.167 Varianza 83.818 62.273 53.636 78.257  ( 𝒚 𝒊𝒋 − 𝒚 ) 𝟐 = 𝒏 𝒋 ( 𝒚 .𝒋 𝟐 − 𝒚 ) 𝟐 + ( 𝒚 𝒊𝒋 − 𝒚 .𝒋 ) 𝟐 SCT = SCTR + SCE

PH: Análisis de Varianza (ANOVA). H0: μ1 = μ2 = … = μk; o todas las medias son iguales. α = 0.05 Tabla de ANOVA Fuente de variación SC gl MC RV Tratamientos SCTR k – 1 MCTR = SCTR 𝑘−1 MCTR MCE Error SCE n – k MCE = SCE 𝑛−𝑘 SCT n – 1 La razón de varianza (RV) se compara con el valor de F0.05,k-1,n-k Si RV es igual o mayor que F, la Hipótesis nula se rechaza. Supuestos: la distribución de las poblaciones son normales, y las varianzas poblacionales son iguales.

PH: Pruebas no paramétricas. Pruebas no paramétricas para comparar dos medias cuando: Las poblaciones no tienen distribución normal. Las muestras son pequeñas. Las varianzas poblacionales son diferentes. Las dos más populares son: Prueba de Mann-Whitney-Wilcoxon. Prueba de Kruscal-Wallis. Estas pruebas se basan en el orden de menor a mayor que tienen las variables en los grupos que se comparan.

PH: µ1=µ2. Epi Info - Analizar Datos - Clásico. Leer los datos con la orden “Read”. Click en “Medias”. Seleccionar la variable cuantitativa en “Media de” y la variable cualitativa en “Cross-tabulate by Value of”. Click en “Aceptar”.

PH: µ1=µ2. Epi Info - Analizar Datos - Clásico. Los resultados incluirán: Los estadísticos en las muestras. El valor de t para poblaciones con varianzas iguales y diferentes, y sus significancias. El análisis de varianza y su significancia. Hay que notar que la significancia de la t y la de ANOVA son la misma. La prueba de Bartlett, que compara las varianzas (equivalente a la prueba de F). Incluye una advertencia a tomar en cuenta. El resultado de la prueba no paramétrica M-W/W (KW).

PH: μ1 = μ2 = … = μk. Epi Info - Analizar Datos - Clásico. Si la variable cualitativa tiene más de dos categorías, los resultados incluirán: Los estadísticos en las muestras. El análisis de varianza y su significancia. La prueba de Bartlett, que compara las varianzas (equivalente a la prueba de F). Incluye una advertencia a tomar en cuenta. El resultado de la prueba no paramétrica M-W/W (KW).

PH: µ1=µ2. www.OpenEpi.com – Variables continuas – Test t Hacer click en “Test t” de “Variables continuas”. Después de anotar los tamaños de muestra, medias y desviaciones estándar de cada muestra en “Introducir datos”, hacer click en “Resultados. Se mostrarán los valores de p para la diferencia de medias, así como la prueba F para comparar las varianzas poblacionales de las poblaciones donde se tomaron las muestras.

PH: μ1 = μ2 = … = μk. www.OpenEpi.com – Variables continuas – ANOVA Hacer click en “ANOVA” de “Variables continuas”. Después de anotar los tamaños de muestra, medias y desviaciones estándar de cada muestra en “Introducir datos”, hacer click en “Resultados. Se mostrarán la tabla de ANOVA y los valor de p para la diferencia de medias, así como la prueba F para comparar las varianzas poblacionales de las poblaciones donde se tomaron las muestras.

IC: µ1- µ 2 Intervalo de confianza para la diferencia de dos medias cuando las muestras son grandes (n ≥ 30) o las poblaciones se distribuyen normalmente. No es indispensable conocer el parámetro (media) poblacional. Procedimiento. Se calcula 𝑥 1 − 𝑥 2 , que es la diferencia de dos medias. Se estima 𝜎 𝑥 1 − 𝑥 2 = 𝜎 2 𝑛 1 + 𝜎 2 𝑛 2 mediante 𝑆𝑝 2 𝑛 1 + 𝑆𝑝 2 𝑛 2 Se selecciona el nivel de confianza, mediante (1 – α)100.

IC: µ1- µ 2 Procedimiento. Se busca el valor de t para (1 – α)100, con n – 1 gl. Se construye el IC mediante 𝑥 1 − 𝑥 2 ±𝑡 1− 𝛼 2 , 𝑛 1 + 𝑛 2 −2 𝑆𝑝 2 𝑛 1 + 𝑆𝑝 2 𝑛 2 donde 𝑆𝑝 2 = 𝑠 1 2 𝑛 1 −1 + 𝑠 2 2 ( 𝑛 2 −1) 𝑛 1 + 𝑛 2 −2

PH: µ1=µ2. Epi Info - Analizar Datos - Clásico. Después de leer los datos (“Read”), click en “Medias”, seleccionar la variable cuantitativa en “Media de” y la variable cualitativa en “Cross-tabulate by Value of”, y click en “Aceptar”. Los resultados incluirán: La diferencia de las medias, y los intervalos de confianza para los supuestos de variables iguales y variables diferentes. Recuerde revisar la prueba de Bartlett, que compara las varianzas (equivalente a la prueba de F).

PH: µ1=µ2. www.OpenEpi.com – Variables continuas – Test t En “Test t” de “Variables continuas”. Después de anotar los tamaños de muestra, medias y desviaciones estándar de cada muestra en “Introducir datos”, hacer click en “Resultados. Los intervalos de confianza se mostrarán después de las diferencias de medias. Recuerde revisar la prueba F que compara las varianzas, para decidir cual intervalo de confianza seleccionar.

Tamaño de muestra para µ1-µ2 Cuando queremos calcular los tamaño de muestra para la diferencia de dos medias utilizamos las fórmulas siguientes: 𝑛 1 = 𝜎 1 2 + 𝜎 2 2 𝑘 𝑧 1−𝛼/2 + 𝑧 1−𝛽 2 𝜇 1− 𝜇 2 2 𝑛 2 = 𝑘𝜎 1 2 + 𝜎 2 2 𝑧 1−𝛼/2 + 𝑧 1−𝛽 2 𝜇 1− 𝜇 2 2 Donde: k = n2/n1 Zα = valor de Z en la distribución normal para el nivel de significancia, α, seleccionado. (Convencionalmente 0.05). Z1- = “error β” que se acepta, expresado en valor z considerando una distribución normal de una cola. (Convencionalmente 0.20).

Tamaño de muestra para µ1-µ2. 𝑛 1 = 𝜎 1 2 + 𝜎 2 2 𝑘 𝑧 1−𝛼/2 + 𝑧 1−𝛽 2 𝜇 1− 𝜇 2 2 𝑛 2 = 𝑘𝜎 1 2 + 𝜎 2 2 𝑧 1−𝛼/2 + 𝑧 1−𝛽 2 𝜇 1− 𝜇 2 2 𝜎 1 2 y 𝜎 2 2 son las varianzas en las poblaciones 1 y 2. 𝜇 1− 𝜇 2 = diferencia que se espera observar como estadísticamente significativa. n1 y n2 son los tamaños de muestra en los grupos 1 y 2.

Tamaño de muestra para µ1-µ2. Valores de Zα y Zβ: Zα siempre será de dos colas, los lo que Zα = será 1.96 cuando α = 0.05. Zβ siempre será de una cola, por lo que Zβ = será 0.845 cuando β = 0.20.

Tamaño de muestra en www. OpenEpi Tamaño de muestra en www.OpenEpi.com - Tamaño de muestra – Diferencia de medias. Para comparar medias. Anotamos: Confianza = (1-α/2)100. Poder = (1-β)100. Razón de sujetos en un grupo entre sujetos en el otro grupo. Anotar media y desviación estándar de cada grupo. El tamaño de muestra se mostrará al hacer click en resultados.

Tamaño de muestra en www.OpenEpi.com - Tamaño de muestra - cohorte. Calcula tamaños de muestra para los dos grupos a comparar. Si la razón grupo2/grupo1 es igual a 1, los dos grupos serán del mismo tamaño.

PH: µ1=µ2. Muestras pareadas. Prueba de hipótesis para la diferencia de dos medias en muestras pareadas. No se requiere conocer la proporción poblacional. Procedimiento: Planteamiento de la hipótesis. Nivel de significancia: α = 0.05. Acomodo de datos en tabla. H0 H1 μ1 = μ2 μ1 ≠ μ2 μ1 ≥ μ2 μ1 < μ2 μ1 ≤ μ2 μ1 > μ2 Par i G.A G.B Dif. 1 1.0 0.0 6 0.9 1.3 -0.4 96 1.1 -0.2 2 1.2 0.2 7 0.8 0.4 97 0.1 3 -0.3 … 98 5 95 99 0.3

PH: µ1=µ2. Muestras pareadas. Procedimiento. Se calcula el promedio de las diferencias, 𝑑 = 𝑑 𝑖 𝑛 , que es el estadístico pertinente. Estadísticos de prueba y restricciones Estadísticos de prueba Restricciones Distribución t 𝑡= 𝑑 −0 𝑠 𝑑 2 𝑛 Población con distribución normal.

PH: Pruebas no paramétricas. Pruebas no paramétricas para comparar dos medias de muestras pareadas cuando: La población de diferencias no tiene distribución normal. Las muestras son pequeñas. Las muestras no son independientes. La más popular es: Prueba de Wilcoxon. Esta prueba se basa en el orden (del valor absoluto) de mayor a menor que tienen las diferencias.

IC: µ1–µ2. Muestras pareadas. Intervalo de confianza para una diferencia de medias cuando la población de diferencias se distribuye normalmente o la muestra es grande (n ≥ 30). No es indispensable conocer el parámetro (proporción) poblacional. Procedimiento. Se calcula 𝑑 , que es la media de las diferencias. Se estima 𝜎 𝑑 = 𝜎 𝑑 2 /𝑛 mediante 𝑠 𝑑 2 /𝑛 Se selecciona el nivel de confianza, mediante (1 – α)100. Se busca el valor de t para (1 – α)100 con n-1 grados de libertad. Se construye el IC mediante 𝑑 ±𝑡 1− 𝛼 2 ,𝑛−1 𝑠 𝑑 2 /𝑛