Contrastes y comparaciones múltiples

Slides:



Advertisements
Presentaciones similares
UNIVERSIDAD DE QUINTANA ROO
Advertisements

ANOVA Modelo I: Comparación entre medias
ANOVA (Analysis of Variation)
Curso de Bioestadística. ANOVA
Contrastes planeados y pruebas post hoc
Análisis de Varianza ANOVA Capitulo 10. Multiples grupos Ha: Por lo menos uno de los grupos no es igual a lo demás.
Experimentos con un solo factor: anÁlIsis de varianza
MÁS DE DOS MUESTRAS Procedimientos paramétricos. Pruebas de diferencias entre más de dos muestras *Con cálculos diferentes de SC y gl, según el caso.
PRUEBA CHI-CUADRADO UNIDAD 2: ESTADÍSTICA.
Prueba de hipótesis. Hipótesis estadísticas: Test estadístico: Procedimiento para determinar, a partir de una muestra aleatoria y significativa, extraer.
ANOVA Análisis de Varianza: Simple Doble Factorial.
PRINCIPIOS DE ESTADÍSTICAS INFERENCIALES PRUEBA DE HIPÓTESIS: MUESTRAS PEQUEÑAS.
Diseño factorial 32 Rafael Araujo-Jorge castilla Gustavo jimenez-cristian nieves-brayan ortega.
MÁS DE DOS MUESTRAS 7.3 Procedimientos paramétricos.
DISEÑOS EXPERIMENTALES ESTADÍSTICA PARA INGENIERIA II.
PRUEBA DE HIPÓTESIS. 1. Una prueba de hipótesis consiste en contrastar dos hipótesis estadísticas. Tal contraste involucra la toma de decisión acerca.
1 Pronósticos, Series de Tiempo y Regresión Capítulo 3: Regresión Lineal Simple.
¡Guía tonta de estadística! Dr. Hamda Qotba, B.Med.Sc, M.D, ABCM.
Tema 3. El estadístico Chi-cuadrado y contrastes asociados RONALD AYLMER FISHER.
PSICOESTADÍSTICAS INFERENCIALES
PRUEBA DE HIPÓTESIS: MUESTRAS PEQUEÑAS
DISEÑOS EXPERIMENTALES
PRUEBAS DE BONDAD DE AJUSTE estas pruebas permiten verificar que la población de la cual proviene una muestra tiene una distribución especificada o supuesta.
PRUEBA DE SIGNIFICANCIA
7.1 Procedimientos paramétricos para datos cuantitativos
MEP- II.
Análisis de varianza Paramétricos vs. No Paramétricos
INFERENCIA ESTADÍSTICA PARA DOS POBLACIONES
ANALISIS UNILATERAL DE LA VARIANZA POR JERARQUIAS DE KRUSKAL- WALLIS
EXPERIMENTOS FACTORIALES
ANALISIS DE LA VARIANZA PROF. GERARDO A. VALDERRAMA M.
MEP- II.
Christian Alave Rosas UNIVERSIDAD JORGE BASADRE GROHMANN BIOLOGÍA - MICROBIOLOGÍA Diseños experimentales Christian Alave Rosas
Anova de una via Diseños completamente aleatorios
Pruebas de normalidad y asunciones de los modelos lineares
ELECCIÓN Y USO DE LA PRUEBA ESTADÍSTICA
¡Guía básica de estadística! Dr. Hamda Qotba, B.Med.Sc, M.D, ABCM.
Procedimientos paramétricos
Anova de una via Diseños completamente aleatorios
¿Son nuestros resultados suficientemente confiables para dar soporte a nuestra hipótesis? ¿Podemos rechazar la hipótesis nula?
Diseño experimental 2137 Juan C. Benavides
Análisis of varianza (ANOVA) De un factor o unidireccional
VARIABLE INDEPENDIENTE Cualitativa dicotómica
DISEÑO DE EXPERIMENTOS
Pruebas de normalidad y asunciones de los modelos lineares
Anova de una via Diseños completamente aleatorios
Capítulo 10 Test de Hipótesis Capítulo 10 Test de Hipótesis.
ANALISIS DE VARIANZA
DISEÑO Y ANALISIS DE EXPERIMENTOS
EXPERIMENTOS FACTORIALES
DISEÑO Y ANALISIS DE EXPERIMENTOS
PARA LA REGRESIÓN LINEAL SIMPLE
¡Guía tonta de estadística! Dr. Hamda Qotba, B.Med.Sc, M.D, ABCM.
Sumas de cuadrados en Anova
ANOVA Permite evaluar dos o más tratamientos.
Diseño en bloques y medidas repetidas
DISEÑO Y ANALISIS DE EXPERIMENTOS
Diseño en bloques aleatorios (completos)
INTRODUCCION A LOS CONTRASTES BASADOS EN RANGOS
Diseños anidados-jerarquicos
"it is necessary to remember the adjective 'random' [in the term 'random sample'] should apply to the method of drawing the sample and not to the sample.
Diseño experimental 2137 Juan C. Benavides
Contraste de hipótesis
Alumna : Karen Cabana Gil
ANÁLISIS DE VARIANZA(ANOVA) AULA:33 INTEGRANTES: JUAN CHAUCA ALEXIS JARAMILLO JEFFERSON LLANGARI KATHY ULLOA UNIVERSIDAD CENTRAL DEL ECUADOR FACULTAD DE.
DISEÑO Y ANALISIS DE EXPERIMENTOS
TRATAMIENTO Y EVALUACION DE RESULTADOS ANALITICOS 1.Conceptos generales sobre la medida. Tipos de errores, concepto, componentes, corrección. Distribución.
U de Mann Whitney.
DISEÑO Y ANALISIS DE EXPERIMENTOS
Transcripción de la presentación:

Contrastes y comparaciones múltiples Diseño experimental 2137 Juan C. Benavides

Porque hacemos comparaciones

comparaciones

Hipotesis de Anova Ha: al menos una de las medias es diferente de las demas Pero no nos informa cuales medias son diferentes entre si Contrastes y comparaciones múltiples identifica estas medias diferentes https://img09.rl0.ru/49f6f96b316025560bf597d867e937e2/c300x160/im0-tub-ru.yandex.net/i?id=5ba951e518db666bcd161b209af1d2cb-sr&n=33&h=160&w=300

Experimentos factoriales Ciertas comparaciones son programadas durante el diseño del experiment (comparación contra control) Las comparaciones inflan el error Tipo I Cada comparación tiene un 5% de probabilidad de cometer error tipo I

Accept H0 Accept H0 Reject H0 Comparison 1 Comparison 2 Reject H0 P(Accept,Accept) = 0.95*0.95 =0.9025 P(Accept,Reject) = 0.95*0.05 =0.0475 P(Reject,Accept) = 0.05*0.95 P(Reject,Reject) = .05*0.05 =0.0025 Accept H0 Reject H0 P=0.95 P=0.05 Accept H0 P=0.95 Comparison 1 Comparison 2 P=0.05 Reject H0

Error tipo I Tasa del error tipo I Reducir el nivel alfa

Alfa de 0.05 H0 H1 tcrit Realidad Estadistico -4 -2 2 4 6 8 0.05 0.1 H0 verdadera H0 falsa Hit Type II error Type I error C.R. Estadistico -4 -2 2 4 6 8 0.05 0.1 0.15 0.2 0.25 0.3 0.35 0.4 0.45 H0 H1 tcrit

Alfa de 0.05 -4 -2 2 4 6 8 0.05 0.1 0.15 0.2 0.25 0.3 0.35 0.4 0.45 =error Tipo I

Alfa de 0.05 0.45 0.4 0.35 0.3 0.25 0.2 =Tipo II 0.15 0.1 0.05 -4 -2 2 4 6 8

Alfa de 0.05 -4 -2 2 4 6 8 0.05 0.1 0.15 0.2 0.25 0.3 0.35 0.4 0.45 =Poder

Alfa de 0.01 -4 -2 2 4 6 8 0.05 0.1 0.15 0.2 0.25 0.3 0.35 0.4 0.45 =Tipo I

Alfa de 0.01 -4 -2 2 4 6 8 0.05 0.1 0.15 0.2 0.25 0.3 0.35 0.4 0.45 =Poder

Comparaciones post-hoc Técnicas para detectar los efectos limitando el error tipo I Fisher LSD (least significative difference) Prueba de Dunnet (Bonferroni) Tukey HSD (Honestly significant difference) Contrastes

Fisher LSD Es una seria secuencial de pruebas t donde no se corrige por los múltiples eventos de comparación MSw=Suma de cuadrados al interior de los tratamientos (error)

Diferencia honesta de Tukey TukeyHSD La prueba mas usada en post hoc Considere las medias mayores y menores entre los tratamientos Use una tasa de error tipo I adecuada Treatment Group n Mean A 10 45.5 B 11 46.8 C 9 53.2 D 54.5

Diferencia honesta de Tukey Rango estudentizado de la distribución q Describe la diferencia entre las diferencias entre medias máxima y mínimas observadas entre los tratamientos Xi = media mayor Xj = media menor MSw = Suma de cuadrados del error

Diferencia honesta de Tukey Mediante esta formula se puede determinar la diferencia minima signifgicativa o la diferencia honesta Las medias no son comparadas entre si, se compara su diferencia contra la diferencia honesta Cualquier diferencia que exceda HSD es considera significativamente diferente

Como funciona TukeyHSD Ordenamos las medias de mayor a menor Treatment Group n Mean A 10 45.5 B 11 46.8 C 9 53.2 D 54.5

Como funciona TukeyHSD Aceptar H0 Stop! P=0.95 Comparación 2 Comparaci 1 P=0.05 Aceptar H0 P(Reject,Accept) = 0.05*0.95 =0.0475 P=0.95 Rechazar H0 Rechazar H0 P=0.05 P(Reject,Reject) = 0.05*0.05 =0.0025

Tukey require: Normalidad Homogeneidad de varianza Muestras independientes, aleatorias Tamaños de muestra similares Si no son iguales se puede usar una media harmonica k = número de tratamientos en factor ni = numero de elementos en tratamiento i

Diferencia honesta de Tukey Treatment Group n Mean A 10 45.5 B 11 46.8 C 9 53.2 D 54.5 Source SS df MS F Between 60 3 20 10 Within 72 36 2 Total 132 39

Diferencia honesta de Tukey Treatment Group n Mean A 10 45.5 B 11 46.8 C 9 53.2 D 54.5 De la tabla de la distribución q Source SS df MS F Between 60 3 20 10 Within 72 36 2 Total 132 39

Diferencia honesta de Tukey Treatment Group n Mean A 10 45.5 B 11 46.8 C 9 53.2 D 54.5 Comparison Difference Significant? A vs. B (46.8-45.5)=1.3 1.3<1.7 A vs. C (53.2-45.5)=7.7 7.7>1.7 * A vs. D (54.5-45.5)=9 9>1.7 * B vs. C (53.2-46.8)=6.4 6.4>1.7 * B vs. D (54.5-46.8)=7.7 7.7>1.7 * C vs. D (54.5-53.2)=1.3

Diferencia honesta de Tukey 55 54 53 52 51 Mean 50 49 48 47 46 45 A B C D Treatment Group

Ejemplo r Groups, Treatments and means a 2.1 51.17547 ab 4.1 50.7529 library(foreign) yield <- read.dta("http://www.stata- press.com/data/r12/yield.dta") tx <- with(yield, interaction(fertilizer, irrigation)) amod <- aov(yield ~ tx, data=yield) library(agricolae) HSD.test(amod, "tx", group=TRUE) Groups, Treatments and means a 2.1 51.17547 ab 4.1 50.7529 abc 3.1 47.36229 bcd 1.1 45.81229 cd 5.1 44.55313 de 4.0 41.81757 ef 2.0 38.79482 ef 1.0 36.91257 f 3.0 36.34383 f 5.0 35.69507 https://stats.stackexchange.com/questions/31547/how-to-obtain-the-results-of-a-tukey-hsd-post-hoc-test-in-a-table-showing-groupe

Ejemplo r library(multcomp) tuk <- glht(amod, linfct = mcp(tx = "Tukey")) summary(tuk) # standard display tuk.cld <- cld(tuk) # letter-based display opar <- par(mai=c(1,1,1.5,1)) plot(tuk.cld)par(opar) https://i.stack.imgur.com/XIiNb.png

Test de Dunnet Cuando se compara contra un control No se realizan otras comparaciones Es el mas poderosos de todas las comparaciones múltiples Requiere homogeneidad de varianza

Contrastes L=𝞵i-𝞵j L=1*𝞵I + (-1)* 𝞵j Es una combinación en la cual la suma de los coeficientes es 0 Comparaciones planeadas de antemano Todas las comparaciones múltiples son contrastes L=𝞵i-𝞵j L=1*𝞵I + (-1)* 𝞵j Coeficientes

Contrastes L=1*𝞵I + (-1)* 𝞵j + 0* 𝞵k L=1*𝞵I + (-0.5)* 𝞵j + (-0.5)* 𝞵k Comparación de dos medias en tres tratamientos Comparaciones entre las tres medias No hay múltiples comparaciones, el mismo error tipo I L=1*𝞵I + (-1)* 𝞵j + 0* 𝞵k L=1*𝞵I + (-0.5)* 𝞵j + (-0.5)* 𝞵k

Contrastes L=1*𝞵I + (-0.5)* 𝞵j + (-0.5)* 𝞵k 𝞵1 =27.75 𝞵2 =21.42 𝞵3 =21.5 L=27.75 -0.5*(21.42)-0.5*(21.5) L=6.29

Contrastes L=27.75 -0.5*(21.42)-0.5*(21.5) L=6.29

Contrastes t1-𝞪=0.95(33)=1.69 El estadistico de prueba es: Se compara con una t de n grados de libertad t1-𝞪=0.95(33)=1.69

Contrastes ortogonales Ortogonal es la generalización de perpendicular en múltiples dimensiones

Contrastes ortogonales Los contrastes ortogonales ofrecen información independiente acerca de la distribución de las medias La suma de los productos en cruz entre los dos contrastes debe ser 0 L1 x L2 = 0

Ejemplo R Input = (" Treatment          Response  Merlot             5  Merlot             6  Merlot             7  Cabernet           8  Cabernet           9  Cabernet          10  Syrah             11  Syrah             12  Syrah             13 Chardonnay         1  Chardonnay         2  Chardonnay         3  Riesling           1  Riesling           2   Riesling           2  Gewürtztraminer    1   Gewürtztraminer    2  Gewürtztraminer    4 ")

library(lsmeans) leastsquare = lsmeans(model, "Treatment") Contrasts = list(Red_line1   = c(1, -1,  0,  0,  0,  0),                  Red_line2   = c(0,  1, -1,  0,  0,  0)) Test = contrast(leastsquare, Contrasts) test(Test, joint=TRUE) Test = contrast(leastsquare, Contrasts) test(Test, joint=TRUE) leastsquare = lsmeans(model, "Treatment") Contrasts = list(Red_vs_white    = c( 1,  1,  1, -1, -1, -1),                  Merlot_vs_Cab   = c( 1, -1,  0,  0,  0,  0),                  Cab_vs_Syrah    = c( 0,  1, -1,  0,  0,  0),                  Syrah_vs_Merlot = c(-1,  0,  1,  0,  0,  0)) contrast(leastsquare, Contrasts, adjust="sidak")