La descarga está en progreso. Por favor, espere

La descarga está en progreso. Por favor, espere

Anova Intragrupo Profesora: Carolina Mora.

Presentaciones similares


Presentación del tema: "Anova Intragrupo Profesora: Carolina Mora."— Transcripción de la presentación:

1 Anova Intragrupo Profesora: Carolina Mora

2 Muestras Relacionadas
tenemos a los mismos sujetos con observaciones o puntuaciones en la misma variable pero en condiciones distintas (por ejemplo: la efectividad de un procedimiento para mejorar la memoria en tras condiciones distintas: sin estrés, con bajo estrés y con alto estrés) los mismos sujetos en la misma condición pero en tiempos distintos. Por ejem plo, medir el nivel de aprendizaje, antes (preprueba), después de aplicar un tratamiento (postprueba) y a los 3 meses (seguimiento) También puede tratarse de sujetos físicamente distintos pero igualados en variables relevantes (variables que controlamos con esta igualación.

3 Ventajas del Anova Intragrupo
Una ventaja de utilizar a los mismos sujetos en tratamientos experimentales es que necesitaremos menos sujetos que si se trata de muestras independientes

4 Ejemplo cuando varios profesores evalúan a los mismos alumnos ¿De dónde vienen las diferencias? ¿De que los alumnos son distintos y los profesores tienden a coincidir en sus juicios? (éste sería un resultado deseable) ¿O de que los profesores son distintos en su modo de evaluar? Prof. 1 Prof. 2 Prof. 3 Prof. 4 Alumno 1 10 6 8 7 Alumno 2 4 5 3 Alumno 3 Alumno 4 2 Alumno 5 Alumno 6 9

5 Supuestos del ANOVA de Medidas Repetidas
Al igual que en los diseños anteriores, antes de aplicar el modelo de análisis de la varianza a los da tos de un determinado estudio, es necesario evaluar los supuestos de aplicación. Nos pararemos en el supuesto de independencia de las observaciones, ya que es muy importante en los diseños de Medidas Repetidas. En el caso de los diseños con medidas repetidas, dado que son los mismos sujetos los que reciben cada una de las condiciones experimentales, es muy probable que aparezca correlación entre sus puntuaciones y, por tanto, que se incumpla este supuesto (independencia de las observaciones), que es el más importante del ANOVA. Cuando se mide en varias veces sucesivas a los mismos sujetos (y siempre que tengamos muestras relacionadas), estas medidas están correlacionadas; en este caso bajan los cuadrados medios del término del error (el denominador de la razón F) y se obtiene con mayor facilidad un valor de F significativo.

6 La condición de esfericidad
Un supuesto implícito en este modelo (medidas repetidas), es que para que los valores de F con los grados de libertad especificados sean válidos (es decir, que correspondan a la probabilidad indicada en las tablas), debe cumplirse la condición denominada de esfericidad, que viene a decir que las covarianzas entre cada par de tratamientos son las mismas (de ocasión a ocasión el cambio es idéntico).

7 Covarianza Dos variables están relacionadas si varían conjuntamente. Por ejemplo, peso y altura en una muestra de niños de 5 a 12 años: los mayores en edad son también los más altos y pesan más, y los más jóvenes son los que pesan menos y son más bajos de estatura; En otro ejemplo, tenemos una relación negativa entre edad y fuerza física en una muestra de adultos de 30 a 80 años de edad: los mayores en edad son los menores en fuerza física

8 Interpretación de la covarianza
Cov(x,y) > si X e Y tienden a moverse en la misma dirección Cov(x,y) < si X e Y tienden a moverse en direcciones opuestas Cov(x,y) = si X e Y no están relacionadas linealmente. Correlación y covarianza son términos conceptualmente equivalentes, ya que expresan lo mismo.

9 Cómo se calcula la covarianza?
Inconveniente de la covarianza En nuestro ejemplo, la covarianza es ¿Indica una relación fuerte o no?

10 Comparación de correlación y covarianza
Aunque el coeficiente de correlación y la covarianza son medidas de la asociación lineal, se diferencian de la siguiente manera: Los coeficientes de correlación están estandarizados. Por lo tanto, una relación lineal perfecta da como resultado un coeficiente de 1. Los valores de covarianza no están estandarizados. Por lo tanto, el valor de una relación lineal perfecta depende de los datos. Y este valor puede llegar hasta el infinito El coeficiente de correlación depende de la covarianza. El coeficiente de correlación es igual a la covarianza dividida entre el producto de las desviaciones estándar de las variables. Por lo tanto, una covarianza positiva siempre producirá una correlación positiva y una covarianza negativa siempre generará una correlación negativa.

11 Consecuencias del incumplimiento del Supuesto de esfericidad
En consecuencia, el incumplimiento de este supuesto repercute gravemente en los resultados arrojados por la prueba F, ya que no es robusta ante observaciones correlacionadas. Concretamente, la correlación entre las puntuaciones provoca un sesgo positivo en la prueba F, aumentando la probabilidad de cometer errores tipo I. Es decir, aumenta la probabilidad de encontrar resultados estadísticamente significativos cuando, realmente, no lo son

12 La W de Mauchly Uno de los test más utilizados para evaluar el supuesto de esfericidad es la W de Mauchly Interpretación del test de Mauchly: Se asume la esfericidad cuando Maunchly es mayor que .05. Cuando hay esfericidad entonces, los datos se pueden analizar mediante el ANOVA intragrupo sin correr el riesgo de obtener un valor sesgado de la prueba F. Sin embargo, si se rechaza la H0, el supuesto de esfericidad no se puede mantener y, por tanto, el ANOVA no es apropiado para analizar los datos

13 La W de Maunchly Es mayor que .05 (se asume esfericidad)
Analizar los datos mediante el ANOVA Se usa el indicador de esfericidad asumida Es menor que .05 no se asume esfericidad Propuestas Mantener el ANOVA con ajustes Cada una de estas correcciones se han desarrollado para alterar los grados de libertad y producir un cociente F donde se reduce la tasa de error de Tipo I. Greenhouse-Geisser (más conservador) Huynh y Feldt (más liberal) Utilizar MANOVA

14 Ajustes Los ajustes se realizan mediante el parámetro épsilon. El programa SPSS proporciona tres valores para épsilon, que aparecen en la salida en la misma tabla que el test de Mauchly. Se recomienda el de Greenhouse-Geisser, ya que habitualmente proporciona valores menos extremos. El estadístico epsilon expresa en qué medida se apartan los datos del requisito de esfericidad A mayor valor de epsilon, los datos se adaptan mejor a la esfericidad. A menor valor de epsilon los datos se apartan más de la esfericidad

15 Epsilon Al emplear la corrección epsilon, lo que tendremos es una F empírica como sigue: Observa que la F empírica no se verá alterada por la corrección epsilon, dado que afecta por igual el numerador y el denominador de la razón F.

16 Ejemplo de Resultados SPSS
Aciertos en función de los grados de alcohol consumidos para tres grupos de sujetos. (muestras relacionadas)

17

18 los resultados para las sumas de cuadrados, grados de libertad, etc
los resultados para las sumas de cuadrados, grados de libertad, etc. adecuados son los que corresponden a “Esfericidad asumida”. El resultado del ANOVA, por tanto, indica que existen diferencias estadísticamente significativas en los aciertos obtenidos entre los tres niveles de alcoholemia.

19 La respuesta a la pregunta ¿entre qué niveles concretamente
La respuesta a la pregunta ¿entre qué niveles concretamente? nos la proporciona el análisis de factores principales que solicitamos en Opciones y que aparece en la tabla Comparaciones por pares.

20 Cálculo Manual del ANOVA INTRAGRUPO
Prof. 1 Prof. 2 Prof. 3 Prof. 4 Alumno 1 10 6 8 7 Alumno 2 4 5 3 Alumno 3 Alumno 4 2 Alumno 5 Alumno 6 9 las filas son alumnos (f = 6) y las columnas son profesores (c = 4) que han evaluado en la misma característica a los seis alumnos. Si la varianza de las filas (alumnos) es estadísticamente significativa (superior a lo aleatorio) se debe sobre todo a que los alumnos son distintos Si la varianza de las columnas es estadísticamente significativa se debe a que los profesores son distintos en su estilo de evaluar (pueden ser, por ejemplo, más o menos benévolos) Pero también podríamos encontrar el efecto de la interacción profesor-alumno (algunos profesores pueden sentirse inclinados a valorar mejor o peor a determinados alumnos).

21 La SS intergrupal NO se calcula para el ANOVA de medidas repetidas porque no tenemos varios grupos a comparar, ya que se trata de un solo grupo medido en distintas ocasiones SST SS inter grupal SS Intra sujeto SSM efecto del experimento SS profesores SS Alumnos SS interacción profesores/alumnos Error SSR

22 Cálculo de la SSM intrasujetos
Comparación de cada valor con respecto a la media total

23 SS profesores SS profesores: 115,96 – 108,83 = 7.18
Comparación de la puntuación de Cada profesor con respecto a su propia media SS profesores: 115,96 – 108,83 = 7.18

24 SS alumnos SS alumnos: 115,96 – 31.75 = 84.19
Comparación de la puntuación de cada alumno con respecto a su propia media SS alumnos: 115,96 – = 84.19

25 SS interacción alumno/profesor
SST SS inter grupal SS Intra sujeto SSM efecto del experimento SS profesores SS Alumnos SS interacción profesores/alumnos Error SSR SS interacción profesores/alumnos Calculo de la varianza producida por la interacción profesor/alumno SSM=SS profesores + SS Alumnos + SS interacción SS interacción = SSM – SS profesores – SS alumnos SS interacción = – 7.18 – 84.19 SS interacción = 24.58

26 De los alumnos (las filas)
Grados de libertad De los alumnos (las filas) F-1 6- 1 5 De los profesores (las columnas) C-1 4-1 3 De la interacción (alumnos x profesores) (f-1) (c-1) 5 x 3 15 Del total N-1 24 - 1 23

27 Cálculo de F La varianza se debe a que los alumnos son distintos, no a que los profesores son distintos.

28


Descargar ppt "Anova Intragrupo Profesora: Carolina Mora."

Presentaciones similares


Anuncios Google