La descarga está en progreso. Por favor, espere

La descarga está en progreso. Por favor, espere

Tema 17: Contraste paramétrico de hipótesis II: Pruebas de contraste para más de dos grupos independientes (ANOVA entresujetos): un y dos factores completamente.

Presentaciones similares


Presentación del tema: "Tema 17: Contraste paramétrico de hipótesis II: Pruebas de contraste para más de dos grupos independientes (ANOVA entresujetos): un y dos factores completamente."— Transcripción de la presentación:

1 Tema 17: Contraste paramétrico de hipótesis II: Pruebas de contraste para más de dos grupos independientes (ANOVA entresujetos): un y dos factores completamente aleatorizados. Pruebas de contraste para más de dos grupos relacionados (ANOVA intrasujetos):diseños con medidas repetidas.

2 Pruebas de contraste (sobre las medias) para más de dos grupos En el tema anterior vimos el empleo de la prueba t para efectuar pruebas de contraste de medias para dos grupos, ya fueran tales grupos relacionados o no relacionados. El problema es que la prueba t se puede emplear únicamente para el caso de comparar las medias dos grupos. Sin embargo, en muchos casos queremos comparar simultáneamente tres o más grupos. La solución es el empleo del Análisis de Varianza (ANOVA: ANalysis Of VAriance). El ANOVA sirve para el caso de dos, tres, cuatro,..., grupos, ya sean éstos grupos relacionados o grupos no relacionados.

3 Pruebas de contraste (sobre las medias) para más de dos grupos En este tema veremos, en primer lugar, el caso del ANOVA con dos o más grupos independientes para cuando tenemos una única variable independiente (o factor): Es el ANOVA unifactorial entre-sujetos. Luego veremos el caso del ANOVA cuando tenemos dos variables independientes (o factores) cuando los grupos son independientes: Es el ANOVA factorial entre-sujetos. Finalmente, veremos el caso del ANOVA con dos o más grupos relacionados para cuando tengamos una única variable independiente (o factor): Es el ANOVA unifactorial intra-sujetos.

4 ANOVA unifactorial entre-sujetos (1) En este caso, tenemos dos o más grupos independientes. Por ejemplo, supongamos que tenemos TRES tratamientos para una fobia: i) desensibilización sistemática, ii) implosión, iii) terapia psicoanalítica, y que tenemos 30 pacientes. Si asignamos 10 pacientes al azar a cada uno de los 3 grupos, podremos medir el grado de fobia tras el tratamiento, y las diferencias en fobia tras el tratamiento podrán atribuirse a los propios tratamientos. Hipótesis nula: (todas las medias poblacionales de los "a" grupos son iguales) H 0 1 = 2 = 3...= a = Hipótesis alternativa: (al menos una media poblacional difiere) H 1 : No es cierto H 0

5 ANOVA unifactorial entre-sujetos (2) Como en el tema anterior, para decidir entre ambas hipótesis, hemos de computar un estadístico de contraste (una F empírica) y contrastarlo con un valor crítico (una F teórica). Esta es la fórmula de la F empírica: Si la hipótesis nula es cierta (y se cumplen los supuestos estadísticos), la F empírica sigue una distribución F de Fisher, con gl num grados de libertad en el numerados y gl den grados de liberta en el denominador.

6 ANOVA unifactorial entre-sujetos (3) Supuestos estadísticos (para asumir la distribución subyacente del estadístico de contraste): 1) Normalidad. Las puntuaciones de cada grupo deben seguir aproximadamente una distribución normal. (El incumplimiento de este supuesto no es particularmente grave.) 2) Homogeneidad de Varianzas. La varianza debe ser similar en los diferentes grupos. (Cuando el tamaño muestral de cada grupo es similar, el incumplimiento de este supuesto no es especialmente grave; pero sí lo es cuando los grupos están claramente desequilibrados.) 3) Independencia de puntuaciones. Las puntuaciones de cada grupo deben ser independientes entre sí. (El incumplimiento de este supuesto es particularmente grave.)

7 ANOVA unifactorial entre-sujetos (4) Es importante observar que, si la hipótesis nula es cierta, tanto en numerador y el denominador de la F empírica son estimadores de la misma varianza (propiedad vista en el primer semestre...por lo que la razón debería ser cercana a 1). Ello se ve fácilmente en la siguiente fórmula: En el denominador, es claro que tenemos una estimación de la varianza (es el promedio de cuasivarianzas de los grupos). Pero lo más relevante es que si la hipótesis nula es cierta, el numerador estima esa misma varianza. (Pero observad que si la hipótesis nula no fuera cierta, el numerador tenderá ser mayor y mayor que 1.)

8 Prueba F Región de mantenimiento de la hipótesis nula y región de rechazo de la hipótesis nula (asumimos, por simplicidad, un alpha de 0'05). Observa que sólo hay un valor crítico. Recordad que una F es una t al cuadrado, de ahí que sólo haya una cola.

9 ANOVA unifactorial entre-sujetos (5) Una crítica que se puede hacer al ANOVA cuando tenemos más de dos grupos es que, caso de rechazar la hipótesis nula, se hace necesario efectuar hipótesis específicas. (Es decir, rechazamos la hipótesis nula de que las tres, cuatro,... medias sean iguales, y ahora toca decidir de manera específica qué medias son iguales y cuáles no.) Ello quiere decir que ahora hemos de efectuar contrastes entre medias. Tales contrastes pueden ser contrastes simples (cuando involucran únicamente dos medias) o contrastes complejos (cuando involucran tres o más medias). Empleando otro criterio, los contrastes pueden ser "a priori" (cuando se plantean antes de analizar los datos) o "a posteriori" (cuando se plantean una vez vistos los datos), Comparaciones múltiples

10 ANOVA unifactorial entre-sujetos (6) Claro está, si tenemos 3 grupos experimentales y queremos hacer los 3 contrastes simples (grupo 1 vs grupo 2; grupo 1 vs grupo 3; grupo 2 vs grupo 3), no basta con hacer la prueba F correspondiente (o la prueba t) sin más. El tema es que al hacer varias comparaciones estamos inflando la probabilidad de error de tipo I. Es decir, si hacemos un ANOVA, la probabilidad de rechazar la hipótesis nula siendo cierta es 0'05 (el habitual el psicología). Pero si en cada una de los contrastes empleamos un alpha de 0'05, ello quiere decir que al hacer los 3 contrastes de arriba, la probabilidad de cometer algún error de tipo I en el experimento es mayor de 0'05. (De manera análoga que comprar muchos billetes de lotería aumenta nuestras posibilidades de tener premio.) Por tanto, se precisa controlar la probabilidad de error tipo I en cada contraste, que será menor que 0'05. Comparaciones múltiples (2)

11 ANOVA unifactorial entre-sujetos (7) Existen varias pruebas que permiten controlar el error tipo I en el experimento. Tales pruebas dependen de si los contrastes son "a priori" o "a posteriori", y de si los contrastes son simples o complejos. -Cuando todos los contrastes son simples y queremos efectuar todas las comparaciones "a priori" (o bien algunas -o todas las- comparaciones "a posteriori"), la prueba más popular es la prueba de Tukey, que el SPSS computa fácilmente. -Cuando tenemos unos pocos contrastes "a priori" (v.g., a-1 contrastes o menos), la prueba recomendada es la de Bonferroni. -Cuando tenemos contrastes "a posteriori" y alguno de ellos es complejo, hemos de efectuar la prueba de Scheffé. Comparaciones múltiples (3) Hay muchas otras pruebas de comparaciones múltiples, como podéis ver en el SPSS.

12 ANOVA factorial entre-sujetos (1) Veremos el caso de que tengamos dos variables independientes (o factores), A y B. El factor A tiene a niveles y el factor B tiene b niveles. Como ambos factores están cruzados, tenemos un total de axb condiciones experimentales. La ventaja de emplear un diseño factorial es que podemos examinar no sólo el efecto (principal) del factor A y el efecto (principal) del factor B, sino también el llamado efecto de interacción entre A y B. En el ANOVA obtendremos TRES razones F, en consecuencia. Efecto de interacción de AxB. Se dice que hay interacción entre A y B cuando el efecto de A difiere a través de los niveles de B; o lo que es lo mismo, que el efecto de B difiere a través de los niveles de A. (Gráficamente se corresponde a líneas que se cruzan o tienden a cruzarse.)

13 ANOVA factorial entre-sujetos (2) Tenemos TRES hipótesis nulas para cada razón F: 1) Efecto principal de A. La hipótesis nula indica que todas las medias de los niveles de A son iguales. 2) Efecto principal de B. La hipótesis nula indica que todas las medias de los niveles de B son iguales. 3) Efecto de la interacción de AxB. La hipótesis nula indica que el efecto de A es el mismo a través de los niveles de B (y que el efecto de B es el mismo a través de los niveles de A).

14 ANOVA factorial entre-sujetos (3) EFECTO PRINCIPAL DE A Si la hipótesis nula es cierta, la F A sigue una distribución F de Fisher, con gl A grados de libertad en el numerados y gl den grados de liberta en el denominador.

15 ANOVA factorial entre-sujetos (4) EFECTO PRINCIPAL DE B Si la hipótesis nula es cierta, la F B sigue una distribución F de Fisher, con gl B grados de libertad en el numerados y gl den grados de liberta en el denominador.

16 ANOVA factorial entre-sujetos (5) EFECTO INTERACCIÓN AxB Si la hipótesis nula es cierta, la F AB sigue una distribución F de Fisher, con gl AB grados de libertad en el numerados y gl den grados de liberta en el denominador.

17 ANOVA factorial entre-sujetos (6) Es importante señalar que los tres efectos (los efectos principales de A y de B y el efecto de interacción de AxB) son estadísticamente independientes. Por ejemplo, es perfectamente posible que no sean significativos ni el efecto principal de A ni el de B, pero que sí lo sea el efecto de la interacción de AxB. Si alguno de los efectos en el ANOVA son significativos, es habitualmente necesario efectuar más pruebas estadísticas. Por simplicidad, no las expondremos. (Por ejemplo, pensemos que el efecto a A hubiera sido significativo, y que los otros dos efectos no lo hubieran sido; y pensemos que A hubiera tenido 3 grupos. Sería necesario efectuar pruebas de comparaciones múltiples entre las medias marginales de A.)

18 ANOVA unifactorial intra-sujetos (1) Esta prueba es la paralela a la t de Student de dos grupos relacionados. La diferencia es que el ANOVA unifactorial intra-sujetos se puede aplicar no sólo a dos grupos relacionados, sino a tres, cuatro, etc. El cómputo del ANOVA unifactorial intra-sujetos es similar al del ANOVA factorial entre-sujetos, excepto en lo que respecta al denominador (el "término de error"). El numerador de la razón F empírica es exactamente el mismo en ambos ANOVAs. Así pues, lo único que necesitamos es indicar cómo se calcula la MC del denominador en los ANOVAS unifactoriales intra-sujetos, que es lo que veremos en la siguiente transparencia. Hipótesis nula: (todas las medias de los "a" grupos son iguales) H 0 : 1 = 2 = 3 =...= a = Hipótesis alternativa: (al menos una media difiere) H 1 : No es cierto H 0

19 ANOVA unifactorial intra-sujetos (2) Igual que en diseños entre-sujetos Observad que estamos tomando "sujetos" como si fuera un factor "cruzado" con el factor que manipulamos: El término de error es la interacción entre sujetos y tal factor. Si la hipótesis nula es cierta, la F empírica sigue una distribución F de Fisher, con gl num grados de libertad en el numerados y gl den grados de liberta en el denominador.

20 ANOVA unifactorial intra-sujetos (3) Al igual que ocurría en los diseños unifactoriales entre-sujetos, cuando tenemos tres o más grupos y rechazamos la hipótesis nula global (es decir, que todas las medias poblacionales sean iguales), habremos de efectuar pruebas de comparaciones múltiples. El cómputo de los diseños unifactoriales intra-sujeto es más engorroso que en los diseños unifactoriales entre-sujetos (debido al cálculo de la SC del denominador de los diseños intra-sujetos) y se recomienda emplear un programa estadístico. Otra razón para emplear el ordenador en los diseños unifactoriales intra- sujeto es que los diseños intra-sujeto requieren comprobar un supuesto adicional: el supuesto de esfericidad, que se refiere a que debe haber homogeneidad de varianzas entre las diferencias entre tratamientos.

21 ANOVA unifactorial intra-sujetos (4) Evidentemente, el supuesto de esfericidad se cumplirá siempre en el caso de tener dos grupos, pero no necesariamente cuando tenemos tres ó más grupos... Cuando se incumple el supuesto de esfericidad, lo que ocurre es que la F empírica (bajo la hipótesis nula) no se distribuye como esperamos (con gl num en el numerador y gl den en el denominador), sino que pierde grados de libertad. Hay pruebas para evaluar el supuesto de esfericidad (v.g., prueba de Mauchly, que ofrece el SPSS), pero que han sido bastante criticadas. La solución habitual suele ser emplear una corrección de los grados de libertad: es el valor epsilon que da el ordenador. Hay varios valores epsilon sobre los grados de libertad, lo más populares con la corrección epsilon de Greenhouse-Geisser y la de Huyn-Feldt. El valor de epsilon será 1 cuando se cumpla totalmente el supuesto (es decir, los gl son los originales), mientras que será menor de 1 en caso contrario. Veremos el empleo de tales correcciones en las sesiones prácticas.

22 ANOVA unifactorial intra-sujetos (5) Al emplear la corrección epsilon, lo que tendremos es una F empírica como sigue: Observa que la F empírica no se verá alterada por la corrección epsilon, dado que afecta por igual el numerador y el denominador de la razón F. Si la hipótesis nula es cierta, la F empírica sigue una distribución F de Fisher, con (gl num * epsilon) grados de libertad en el numerador y (gl den * epsilon) grados de liberta en el denominador.


Descargar ppt "Tema 17: Contraste paramétrico de hipótesis II: Pruebas de contraste para más de dos grupos independientes (ANOVA entresujetos): un y dos factores completamente."

Presentaciones similares


Anuncios Google