La descarga está en progreso. Por favor, espere

La descarga está en progreso. Por favor, espere

Miquel A. Belmonte Hospital General de Castellón España, 2000

Presentaciones similares


Presentación del tema: "Miquel A. Belmonte Hospital General de Castellón España, 2000"— Transcripción de la presentación:

1 Miquel A. Belmonte Hospital General de Castellón España, 2000
SPSS - ANOVA Miquel A. Belmonte Hospital General de Castellón España, 2000 En esta revisión vamos a estudiar el test estadístico de la Análisis de la Varianza desribiendo sus bases teóricas fundamentales así como la forma de usarla mediante el programa SPSS 8.0. Supongamos que queremos conocer la relación entre el salario actual de los empleados de un banco (variable cuantitativa dependiente) y diversos factores (variables categóricas independientes) como el sexo, el nivel de estudios y la raza, así como variables cuantitativas como la edad y el salario inicial cuando el empleado entró a trabajar en la empresa. Para ello usaremos las técnicas de ANOVA (ANalisys Of Variance)

2 Elección de tests estadísticos
Varbl. dependientes > 1 1 Varbl. Indep. 1 En este esquema se indica el test estadístico a realizar para analizar diversos tipos de estudios, según el tipo y número de variables dependientes e independientes. El test ANOVA se aplica cuando tenemos una variable dependiente cuantitativa, y queremos ver su relación respecto a varias variables independientes cualitativas denominadas factores. El análisis de varianza también permite estudiar su relación o corregir el efecto de variables independientes cuantitativas (edad) denominadas covariables. > 1

3 ANOVA - conceptos básicos
Influencia de una o varias variables categóricas (factores) sobre una variable dependiente cuantitativa Valora efectos principales de factores e interacciones de éstos entre sí Admite una o más covariables de control, de tipo cuantitativo Estudia reducción de variabilidad (suma de cuadrados) Test paramétrico: Compara las medias de los subgrupos formados para cada factor En el test de ANOVA se forman subgrupos para cada nivel de cada factor, y se compara la media de la variable de estudio para cada subgrupo con técnicas de corrección para comparaciones múltiples. El resultado final del test ANOVA, en caso de resultar singnificativo, solo establece que al menos un subgrupo del factor considerado es distinto de los demás, sin especificar cual es ese subgrupo concreto.

4 Condiciones Igualdad de varianzas Distribución paramétrica
Se trata de una técnica paramétrica, que exige igualdad de varianzas entre los subgrupos así formados, y distribución aproximadamente gaussiana. El test de Levene determina si los subgrupos tienen varianzas significativamente distintas entre sí. En tal caso, hay que tener precaución al interpretar los resultados ya que pueden no ser fiables.

5 ANOVA - estadísticos MS (factor o interacción) F = MS de los residuos
SS total =  SS efectos principales + SS interacciones orden 2 y sucesivas + SS residuos SS (factor o interacción) MS = DF (grados de libertad) MS (factor o interacción) F = MS de los residuos La suma total de cuadrados (SS total, siendo SS = Sum of Squares) indica la variabilidad total de la muestra estudiada. De hecho, la varianza es el cociente entre esta SS y la N de la muestra estudiada. Esta SS total es la suma algebráica de la variabilidad (SS) explicada por los factores considerados en el modelo (efectos principales y sus interacciones) más la variabilidad residual, no explicada por el modelo establecido. SS = Sum of Squares = Suma de Cuadrados MS = Mean Squares = Media de Cuadrados

6 ANOVA - Output SPSS Sum of Mean Sig
Source of Variation Squares DF Square F of F Covariates , ,882 ,000 AGE , ,882 ,000 Main Effects , ,284 ,000 JOBCAT , ,529 ,000 SEXRACE , ,596 ,000 2-Way Interactions , ,630 ,000 JOBCAT SEXRACE , ,630 ,000 Explained , ,869 ,000 Residual ,014 Total ,313 En este ejemplo se estudia la influencia del nivel laboral (5 categorías) y de una variable que combina sexo y raza de los individuos (varon-mujer, blanco-minoría = 4 categorías) sobre el salario de los empleados corrigiendo por el efecto de la edad del sujeto (age). Como vemos, DF es siempre igual al número de categorías menos una. La media de cuadrados (MS o mean square) es el cociente entre cada suma de cuadrados (SS) y su DF. El valor de F es el cociente entre cada MS y el valor de MS de los residuos. Cuanto más elevado, más importancia tiene ese factor en el modelo considerado. La significación se calcula a partir del estadístico F mediante tablas de Snédecor con DF grados de libertad. En este ejemplo, todos los factores y covariables son significativos, indicando que todos estos elementos influyen en el modelo final y por tanto en el salario de los individuos. Sum of Squares F = _____________________ MS Factor explained Mean Square = _______________ DF MS Residual

7 Modelos de ANOVA ANOVA factorial general ANOVA multivariado: MANOVA
ANOVA de medidas repetidas En SPSS 8.0 se contemplan tres tipos de ANOVA, englobados bajo el término GLM (General Linear Models): ANOVA factorial general. Es el más utilizado. Se basa en el modelo de una variable dependiente simple antes comentado respecto a varias variables categóricas independientes entre sí. ANOVA multivariado. Cuando hay más de una variable dependiente se usan técnicas de MANOVA. ANOVA de medidas repetidas (GLM Repeated Measures) analiza grupos de variables dependientes relacionadas entre sí que representan diferentes medidas del mismo atributo, lo que es habitual en el caso de mediciones repetidas en el tiempo. Este modelo en cierto modo se asimila a un ANOVA para datos apareados. En el modelo general, las variables son independientes entre sí.

8 ANOVA Modelo Lineal General Factorial
Los tests de ANOVA los encontramos en SPSS 8.0 en el menú Statistics > General Linear Model. Elegimos el Modelo Lineal General Factorial. Normalmente elegimos las variables independientes (factores) con el modelo de tipo fijo, ya que de este modo se incluyen todas las categorías o niveles del factor considerado, en el modelo. Si el número de categorías del modelo es muy elevado para una muestra relativamente pequeña, se formarían demasiados subgrupos con pocos elemntos en cada uno de ellos, por lo que es preferible realizar un muestreo aleatorio de categorías para establecer nuestro modelo. Elegimos entonces el sistema de efectos aleatorios. Las covariables son variables cuantitativas predictivas. Podemos usarlas para corregir el efecto de esas variables en el modelo, o bien para definir un modelo de regresión.

9 Definición del modelo Lo más habitual es usar el modelo factorial completo, en el que se toman en consideración todas las variables disponibles, incluyendo sus efectos principales e interacciones a todos los niveles. Por otro lado, para expertos en estadística, SPSS permite definir modelos a medida con un alto grado de flexibilidad sobre el número, tipo y nivel de interacción de las variables del modelo.

10 Opciones Entre las principales opciones del programa encontramos:
Descriptive: produce medias observadas, desviaciones standard, y recuento N para todas las variables dependientes en todas las celdas o subgrupos formados. Estimates of effect size: Da un valor parcial de eta-cuadrado para cada efecto y cada estimación de parámetro. Este estadistico describe la proporcion de la variabilidad total atribuible al factor, de modo similar a R2 para la regresión. Observed power da la potencia del test cuando la hipotesis alternativa se establece en base al valor observado. Parameter estimates produce the estimaciones de parametros, errores standard, t tests, intervalos de confianza, y la potencia para cada test. Homogeneity comprueba la homogeneidad de la varianza mediante el test de Levene para cada variable dependiente a través de todas las combinaciones de factores entre-sujetos, solo para este tipo de factores.

11 Contrastes Permiten comparar niveles o categorías entre sí, dentro de cada factor considerado. Los contrastes se usan para medir diferencias entre niveles de un factor. Puede especificarse un contraste para cada factor del modelo. Los contrastes representan combinaciones lineales de los parámetros. Los contrastes disponibles son: desviación, simple, diferencia, Helmert, repetidos, y polinómicos. Para los contrastes simple y desviación, es posible elegir si la categoría de referencia es la primera o la última. Los frecuentemente usados contrastes a priori están disponibles para realizar pruebas de hipótesis. Adicionalmente, después de que una prieba F global haya mostrado ser significativa, pueden usarse puebas post hoc para evaluar diferencias entre medias específicas. Las medias marginales estimadas da estimaciones de los valores de media predichos para las celdas en el modelo, y los gráficos de perfiles (interaction plots) de estas medias te permiten visualizar fácilmente algunas de las relaciones. Las pruebas de comparación múltiple post hoc se realizan para cada variable separadamente.

12 Profile Plots Muestran estimaciones de Media Marginal
para cada subgrupo formado. Los gráficos de perfiles (interaction plots) son útiles para comparar las medias marginales (medias de los subgrupos formados) en el modelo. Un profile plot es una linea en la que cada punto indica la media marginal estimada para una variable depiendente (ajustada para cualquier covariable) para un nivel de un factor. Los niveles de un segundo factor pueden ser usados para hacer lineas separadas. Un gráficos de perfiles de un factor muestra si las medias marginales estimadas aumentan o disminuyen entre niveles. Para dos o más factores, las lineas paralelas indican que no existe interacción entre los factores, loo que significa que puedes investigar los niveles de un solo factor. Las lineas no paralelas indican que existe interacción entre los factores.

13 Gráfico de distribución
Los gráficos o plots (spread-versus-level y residual) son opciones útiles para comprobar asunciones sobre los datos. El gráfico de distribución permite observar el comportamiento de la media y la desviación estándard entre distintos niveles del factor. En distribuciones paramétricas la relación entre ambas debe ser lineal. El gráfico Residual muestra la relación entre valores observados y predichos así como los valores estandarizados para cada variable dependiente, lo que es útil para comprobar que las varianzas son iguales. Lack-of-fit comprueba si las relaciones entre la variable dependiente y las independentes pueden ser adecuadamente descritas por el modelo.

14 ANOVA Modelo Lineal General Factorial SYNTAX
UNIANOVA salnow BY sexrace jobcat WITH age /METHOD = SSTYPE(3) /INTERCEPT = INCLUDE /PRINT = DESCRIPTIVE ETASQ HOMOGENEITY /CRITERIA = ALPHA(.05) /DESIGN = age sexrace jobcat sexrace*jobcat . Podemos usar el método clásico de comandos mediante líneas de texto para establecer el método y designar las variables y las opciones del análisis a realizar. Con SPSS para Windows (versión 6 y posteriores), es más sencillo usar las ventanas interactivas de SPSS, pero si deseamos automatizar el proceso para repetirlo posteriormente deberemos pegar (paste) el comando a ejecutar en la ventana de sintaxis y luego guardarlo en un fichero de texto apropiado.

15 Estadísticas Descriptivas
Es siempre muy interesante repasar los valores de medias y número de sujetos incluidos en cada subgrupo establecido para el análisis. Si la N es muy baja (lo que se da si hay muchos niveles y variables independientes y/o la muestra es escasa), los grupos pueden tener pocos sujetos y por tanto potencia insuficiente para encontrar diferencias significativas.

16 ANOVA Output Por defecto, se usa el tipo III de cálculo de suma de cuadrados, que es el más apropiado si no hay casillas (subgrupos) vacias. Se muestran como resultados: la suma de cuadrados para cada factor e interacción así como los residuos (error), media de dicha suma en relación a los grados de libertad (DF), valor de F de Snédecor para cada elemento e interacción, y significación para cada elemento. La R cuadrada indica la proporción de varianza explicada por el modelo, y varia entre cero y uno.

17 ANOVA factorial Simple General
Diseños factoriales de modelos saturados Métodos: Único: todos los elementos concurrentemente Jerárquico: covariables - factores- interacción Experimental: factores- interacción General Diseños factoriales de modelos no saturados Permite especificar con más flexibilidad el modelo a utilizar y variedad de estadísticos En las versiones anteriores a la 7.0 de SPSS el procedimiento ANOVA se realiza de modo distinto,permitiendo elegir entre sistemas simples y generales, dependiendo de que se usen modelos saturados o no saturados. Los modelos saturados son aquellos en los que todas las variables se incluyen en el modelo. Los factores y las covariables así como sus interacciones pueden entrar en el modelo de forma simultánea (modelo único) o bien en distinto orden. Los modelos no-saturados son más complejos. En ellos se eligen las variables a incorporar al modelo, bien manualmente o de forma aleatoria. Requieren conocimientos de estadística avanzada para tomar las decisiones más adecuadas.

18 ONEWAY Caso particular de ANOVA de un factor
Una sola variable dependiente cuantitativa Un factor con varias categorías ONEWAY, pero no ANOVA, produce: Contrastes Comparaciones múltiples Pruebas de tendencia Test homogeneidad de varianza Cuando solo tenemos una variable independiente o factor, con varios niveles o categorías, utilizamos una variante de ANOVA más simple, denominada Oneway.

19 ONEWAY Si se especifican varias variables dependientes se realizará un Oneway separado para cada una de ellas. Esta prueba, que es una modalidad del Anova general, también es paramétrica por lo que requiere igualdad de varianzas entre los niveles o categorías. Las comparaciones múltiples post-hoc permiten conocer qué niveles o categorías del factor difieren entre sí, una vez deteminado que existe al menos un subgrupo o nivel distinto de los demás mediante la prueba de F para el conjunto de niveles.

20 Resultados Oneway Listado descriptivo
Para cada grupo formado por un nivel o categoría del factor se muestran las estadísticas centrales: N, media, desviación y error estándard, máximo y mínimo. Esmuy útil observar estos parámetros para detectar valores atípicos (outliers) que pueden haberse introducido por error en la base de datos. La inspección visual de la media marginal de estos niveles o categorías frecuentemente ya revela si hay diferencias entre ellos, siempre que éstas diferencias tengan una magnitud suficiente.

21 ONEWAY - Output SPSS Analysis of Variance Sum of Mean F F
Source D.F. Squares Squares Ratio Prob. Between Groups ,5184 ,0000 Unweighted Linear Term ,8499 ,0000 Weighted Linear Term ,8318 ,0000 Deviation from Linear , ,7473 ,0000 Within Groups ,57 Total El resultado del test Oneway es un valor de F que solo indica si al menos una categoría difiere significativamente de las demás. En ejemplo aquí mostrado el resultado es significativo, por lo que procederemos a un estudio en mayor profundidad, mediante comparaciones post-hoc entre las categorías del factor o variable independiente.

22 ONEWAY - Comparaciones Múltiples
Multiple Range Tests: Scheffe test with significance level ,05 The difference between two means is significant if MEAN(J)-MEAN(I) >= 2625,5795 * RANGE * SQRT(1/N(I) + 1/N(J)) with the following value(s) for RANGE: 4,37 (*) Indicates significant differences which are shown in the lower triangle C O S E l f e C x e f c o e r i u l m Mean JOBCAT 11134, Clerical 11136, Office t 12375, Security 23901, College * * * 25595, Exempt e * * * En este ejemplo, donde se estudia si hay diferencias de salario según el nivel laboral, vemos que los tres primeros grupos no son significativamente diferentes entre sí, como tampoco difieren los dos últimos. Por tanto, hay dos subgrupos estadíticamente homogéneos, uno de salario bajo formado por los niveles (trabajos de bajo nivel) y otro de salario alto formado por los niveles 4+5 (trabajos de alto nivel).

23 Oneway - Contrastes Este es el mismo ejemplo pero con siete niveles o categorías. Aquí se forman tres subgrupos según su respectivo nivel de salario. Los tres primeros tienen salarios bajos, los dos siguientes son de nivel medio y el último es de alto nivel. Se comprueba que el nivel significación dentro de cada subgrupo de categorias (intragrupo) así formado no es significativo (P>0.05) mientras sí lo es en las comparaciones inter-grupos.

24 Oneway - Means Plot Como en el caso del ANOVA general, es posible mostrar gáficamente la estimación de media de subgrupo, que corrobora así los conceptos expuestos anteriormente.

25 Tipos de Análisis de Varianza
Número de Varbl. independientes Condiciones previas En este esquema se indica el test estadístico a realizar para analizar diversos tipos de estudios, según el tipo y número de variables dependientes e independientes. El test ANOVA se aplica cuando tenemos una variable dependiente cuantitativa, y queremos ver su relación respecto a varias variables independientes cualitativas denominadas factores. El análisis de varianza también permite estudiar su relación o corregir el efecto de variables independientes cuantitativas (edad) denominadas covariables. Las pruebas no paramétricas de análisis de varianza son el test de Kruskal-Wallis, de comparación de k-muestras independientes, y el de Friedman para comparación de k-muestras interrelacionadas o dependientes.

26 Kruskal-Wallis Oneway no paramétrico
Tests no paramétricos - K muestras independientes El equivalente al test de Oneway para datos que no cumplen las condiciones requeridas para Anova es el test de Kruskal-Wallis (K-W). Este procedimiento compara dos o mas grupos de casos, definidos en la variable de agrupación, respecto a una variable dependiente definida en la casilla contrastar variables. Ejemplo: ¿Difieren tres marcas de bombillas de 100 watios en su tiempo de vida media? Con el test de Kruskal-Wallis puede detectarse que las tres marcas ciertamente difieren de su vida media útil. Hay tres tests disponibles: H de Kruskal-Wallis, mediana y Jonckheere-Terpstra.El test H de Kruskal-Wallis, una extension del test U de Mann-Whitney es el análogo no-parametrico del test Oneway y detecta diferencias en la situación de la distribucion. El test de la mediana, que es una prueba más general pero no tan potente, detecta diferencias en la situación y forma de las distribuciones. Ambas pruebas asumen que no hay un ordenamiento a priori de las k poblaciones de las que se han extraido las muestras. Cuando hay una ordenación natural a priori (ascendente o descendente) de las k poblaciones,es preferible usar el test de Jonckheere-Terpstra. Estadísticos disponibles: Media, desviacion estandard, minimo, maximo, numero decasos no-perdidos ycuartiles.

27 Kruskal-Wallis Estadísticos descriptivos
Como en otros tests no paramétricos, se realiza una ordenación de valores o ranking, y se establece el rango medio para cada nivel o subgrupo respecto de los demás. El test de K-W compara el rango medio alcanzado en cada subgrupo con los demás y determina si estas diferencias son suficientemente significativas como para rechazar la hipótesis nula.

28 Kruskal-Wallis Prueba de la Mediana
En el test de la mediana se ordenan los elementos de cada nivel o subgrupo y se cuenta el número de elementos que están por encima y por debajo de la mediana global de la variable dependiente. Se realiza un test de Chi-cuadrado con la tabla resultante. Si es significativo se da el test de K-W como significativo y se acepta que hay diferencias entres los grupos, es decir, se rechaza la hipótesis nula.

29 Kruskal-Wallis Contrastes
El test de Kruskal-Wallis permite realizar pruebas de contraste según el método asintótico o el de Monte-Carlo. Exact Tests provee dos métodos adicionales para calcular los niveles de significación para los estadísticos disponibles con los procedimientos Crosstabs y Nonparametric Tests . Estos métodos, el método exacto y el de Monte Carlo, son un medio para obtener resultados precisos cuado sus datos no cumplen ninguna de las asunciones subyacentes necesarias para dar resultados fiables mediante el método estándard asintótico.

30 Friedman Anova de dos vías para muestras apareadas
Friedman es el test básico, que compara los rangos entre K variables relacionadas entre sí. Se basa en X2 Dentro de las pruebas no paramétricas encontramos varios tests para comparar varios grupos de muestras relacionadas. Uno de los más usados es el de Friedman. Esta prueba compara las distribuciones entre dos o más variables. Ejemplo: ¿Asocia el público niveles de prestigio distintos según la profesión: médico, abogado, policía, maestro? Se le pidió a 10 personas que ordenasen estas cuatro ocupaciones por orden de prestigio. La prueba de Friedman indica que la gente realmente asocia distintos niveles de prestigio con esas profesiones. Estadísticos disponibles: Media, desviacion estandard, minimo, maximo, numero decasos no-perdidos ycuartiles. Pruebas: Friedman, W de Kendall, y Q de Cochran. Kendall W es un test de concordancia donde cada variable es un sujeto de estudio y cada caso es un juez. Cochran Q se usa cuando todas las variables independientes son dicotómicas

31 Friedman Resultados La prueba de Friedman es el equivalente no parametrico de un diseño de medidas repetidas de una muestra o un análisis de dos vías de la varianza, con una observación por celda. Friedman comprueba la hipótesis nula de que k variables relacionadas vienen de la misma población. Para cada caso, las k variables son ordenadas en un ranking de 1 a k. El estadístico de la prueba se basa en estos ranks. La W de Kendall es una normalizacion del estadístico de Friedman. Kendall’s W es interpretable como el coeficiente de concordancia, que es una medida del acuerdo entre jueces. Cada caso es un juez o evaluador y cada variable es un elemento o persona siendo juzgada. Se calcula la suma de los ranks para cada variable. Kendall’s W varia entre 0 (acuerdo nulo) y 1 (acuerdo absoluto). Cochran’s Q es identica al test de Friedman pero se aplica cuando todas las respuestas son binarias. Es una extension del test de McNemar a la situación de k-muestras. Cochran’s Q comprueba la hipótesis de que varias ariables dicotómicas relacionadas tienen la misma media. Las variables se miden sobre el mismo individuo o sobre individuos emparejados.

32 ANOVA - otros modelos ANOVA multivariado: MANOVA
Más de una variable dependiente Gran complejidad de modelos ANOVA medidas repetidas La variable dependiente se mide en más de una ocasión para cada sujeto Multivariante complejo El procedimiento Medidas Repetidas GLM (general linear model) proporciona un análisis de varianza cuando la misma medida se realiza varias veces sobre cada sujeto o caso. Si se especifican factores entre-sujetos, se divide la población en grupos. Usando este procedimiento de GLM pued comprobarse la hipótesis nula sobre los efectos de los factores entre-sujetos y intra-sujetos. Pueden investigarse además interacciones entre factores así como los efectos entre factores individuales.

33 MANOVA El procedimiento MANOVA o GLM Multivariante proporciona análisis de regresión y análisis de varianza para multiples variables dependientes por uno o más factores independientes y/o covariables. Las variables de factor dividen la población en grupos. Usando este procedimiento puede probarse la hipótesis nula sobre los efectos de los factores sobre las medias de varios subagrupamientos de una distribución conjunta de variables dependientes. Pueden investigarse interacciones entre factores así como los efectos de factores individuales. Además, se puede incluir en el modelo los efectos de las covariables y las interacciones entre covariables y factores. Para el análisis de regresión , las variables independentes (predictoras) se especifican como covariables. Ejemplo. Un manufacturador de plasticos mide tres propiedades de la película de plástico: resistencia al desgarro, brillo y opacidad. Se ensayan dos velocidades de extrusion y dos cantidades distintas de aditivos, y se miden tres propiedades bajo cada combinacion de velocidad de extrusion y cantidad de aditivo. El manufacturador encuentra que la velocidad de extrusion y la cantidad de aditivos individualmente producen resultados significativamente distintos en las propiedades medidas, pero que la interaccion entre los dos factores no es significativa.

34 Manova - Resultados Pueden comprobarse modelos equilibrados (balanced) y desequilibrados (unbalanced). Un diseño está equilibrado si cada celda en el modelo contiene el mismo número de casos. En un modelo multivariado, las sumas de cuadrados debidas a los efectos en el modelo y las sumas de cuadradros de los errores están en un formato de matriz más que en el formato escalar existente en el análisis univariado. Estas matrices se denominan matrices SSCP (sums-of-squares and cross-products). Si se especifica más de una variable dependiente se suministra un análisis de varianza multivariado usando la traza de Pillai, Wilks’ lambda, la traza de Hotelling, y el criterio de la mayor raiz de Roy con tests F aproximados, así como un análisis univariado de la varianza para cada variable dependiente. Además de comprobar estas hipótesis, MANOVA produce estimaciones de los parámetros.

35 ANOVA medidas repetidas
El procedimiento GLM de Medidas Repetidas analiza grupos de variables dependientes que representan diferentes mediciones del mismo atributo; proporciona pues un Anova cuando ser realiza una misma medición varias veces sobre los mismos sujetos. Para usar Medidas Repetidas, los datos deben estar dispuestos correctamente. Debe definirse al menos un factor intra-sujetos que indica las variables que contienen las medidas repetidas. Nótese que el o los factores intra-sujetos no son variables existentes en sus datos sino más bien factores que vd. define aquí. Nótese que el órden en el que se especifican los factores intra-sujetos es importante. Cada factor constituye un nivel dentro del factor previo. Si se especifican también factores entre-sujetos, éstos dividen la población en grupos. Por ejemplo, análisis considerando el sexo de los suejtos. Usando el procedimiento GLM Medidas Repetidas puede probarse la hipótesis nula sobre los efectos tanto de factores entre-sujetos como intra-sujetos. También pueden investigarse interacciones entre factores así como los efectos de factores individuales. Además, puede incluirse el efecto de covariables constantes y de interacciones entre covariables con los factores intra-sujetos. Se define un factor intra-sujetos con el número de categorías o niveles adecuado al número de mediciones realizadas Se especifican las variables de las mediciones realizadas como grupos del factor intra-sujetos creado. Pueden definirse también covariables de corrección y factores de agrupamiento entre-sujetos.

36 Resultados - Efectos intrasujetos
Las pruebas de efectos entre sujetos icnluyen diversos tests. Se determinan también estadísticos para las interacciones con el factor estudiado. Ejemplo. En un estudio sobre pacientes diabéticos, medimos el nivel de hemoglobina glicosilada (HbA1c) semanalmente durante 4 semanas. En el fichero de datos, cada persona es un sujeto o caso. El valor HbA1c para cada semana se registra en cuatro variables distintas. El sexo de cada persona se registra en otra variable. Los valores de HbA1c medidos para cada sujeto repetidamente, pueden agruparse definiendo un factor intra-sujetos. Ese factor podría llamarse semana, y se define para tener cinco niveles. En la caja de diálogo principal, las variables HbA1_s1...s4 se usan para asignar los cuatro niveles de semana. La variable en el fichero de datos que agrupa varones y mujeres (sexo) puede ser especificada como un factor entre-sujetos para estudiar las diferencias entre varones y mujeres .

37 ANOVA medidas repetidas Pruebas multivariadas
De modo similar a MANOVA, el procedimiento de Medidas Repetidas proporciona análisis uni y multivariados para los datos medidos. Se pueden probar modelos equilibrados y desequilibrados, dependindo de que cada celda del modelo contenga el mismo número de casos o no. En un modelo multivariado, la suma de cuadrados debida a los efectos en el modelo y la SS de errores estan en forma de matriz mas que en la forma escalar encontrada en el análisis multivariado. Estas matrices se denominan SSCP (sums-of-squares and cross-products). Si se especifica más de una variable dependiente se suministra un análisis de varianza multivariado usando la traza de Pillai, Wilks’ lambda, la traza de Hotelling, y el criterio de la mayor raiz de Roy con tests F aproximados, así como un análisis univariado de la varianza para cada variable dependiente. Además de comprobar las hipótesis, el procedimiento Medidas Repetidas produce estimaciones de los parámetros.

38 ANOVA medidas repetidas Contrastes intra-sujetos
Del mismo modo que vimos ya con GLM Anova, pueden usarse aqui también contrastes a priori para realizar pruebas de hipótesis de factores entre-sujetos. Además, si el test F global ha demostrado ser significativo, pueden usarse pruebas post-hoc para evaluar diferencias entre medias específicas. Las medias marginales dan estimaciones de los valores medios predichos para las celdas del modelo, y los gráficos de perfiles (interaction plots) de estas medias permiten visuallizar fácilmente algunas de estas relaciones. En el ejemplo arriba mostrado no se demuestra interacción del factor intra-sujetos con ninguno de los factores entre-sujetos o covariables analizadas.

39 ANOVA medidas repetidas
Estructura de los datos Las variables deben ser cuantitativas. Los factores entre-sujetos dividen la muestra en subgrupos discretos, como hombre-mujer. Estos factores son categóricos y pueden tener valores numéricos o ser cadenas de hasta 8 carácteres. Los factores entre-sujetos se definen en la caja de diálogo de GLM Repeated Measures Define Factor(s). Las covariables son variables cuantitativas que están relacionadas con la variable dependiente. Para un análisis de medidas repetidas, éstas deben permanecer constantes para cada nivel de una variable entre-sujetos. El fichero de datos debe contener un conjunto de variables para cada grupo de mediciones de los sujetos. El grupo tiene una variable para cada repetición de la medicion dentro del grupo. Un factor intra-sujetos se define para el grupo con un número de niveles igual al numero de repeticiones. Un ejemplo muy adecuado para practicar con este procedimiento está incluido en SPSS 8.0 en el fichero anxiety.sav


Descargar ppt "Miquel A. Belmonte Hospital General de Castellón España, 2000"

Presentaciones similares


Anuncios Google