Anova Intragrupo Profesora: Carolina Mora.

Slides:



Advertisements
Presentaciones similares
Nazira Calleja. Es un índice estadístico que cuantifica la magnitud de la relación entre dos variables o la diferencia entre dos grupos. Indica qué tan.
Advertisements

REGRESIÓN LINEAL MÚLTIPLE TEMA INTRODUCCIÓN 2 x1x1 Y x2x2 x3x3 xKxK.
ANÁLISIS ESTADÍSTICO de los RESULTADOS DEL AJUSTE
LEONARDO LÓPEZ C. ECONOMIA ESTADISTICA COMPUTARIZADA PARALELO: 261.
PRINCIPIOS DE ESTADÍSTICAS INFERENCIALES PRUEBA DE HIPÓTESIS: MUESTRAS PEQUEÑAS.
TEMA 3. ESTADÍSTICA BIDIMENSIONAL. INDICE 1.- Relación estadística: correlación 2.- Diagramas de dispersión o nube de puntos 3.- Tablas de frecuencia.
MÁS DE DOS MUESTRAS 7.3 Procedimientos paramétricos.
TEMA 3: Estadística Bidimensional. ● Álvaro Fernández Romero y Luis Carlos Fernández herrezuelo.
MEDIDAS DE DISPERSIÓN Y DATOS AGRUPADOS.. MEDIDAS DE DISPERSIÓN Y DATOS AGRUPADOS  ¿Qué son las medidas de dispersión?  Parámetros estadísticos que.
CORRELACIÓN.  La correlación es la forma numérica en la que la estadística ha podido evaluar la relación de dos o más variables, es decir, mide la dependencia.
UNIVERSIDAD YACAMBÚ VICERRECTORADO DE INVESTIGACIÓN Y POSTGRADO INSTITUTO DE INVESTIGACIÓN Y POSTGRADO DOCTORADO EN GERENCIA S.A. DISEÑO DE INVESTIGACIÓN.
DISEÑOS EXPERIMENTALES ESTADÍSTICA PARA INGENIERIA II.
PPTCEG049EM32-A16V1 Distribución normal EM-32. Recordemos… -¿Cómo se calcula el valor esperado para una determinada variable aleatoria? -¿Cómo es posible.
Bioestadística Distribuciones muestrales para variables cuantitativas.
1 Pronósticos, Series de Tiempo y Regresión Capítulo 3: Regresión Lineal Simple.
Ing. VITELIO ASENCIOS TARAZONA. Dentro de los modelos causales o asociativos encontramos el análisis de regresión o regresión lineal, que es un método.
Tema: Estadísticos no paramétricos CHI-Cuadrada Curso: Seminario de Estadística ESCUELA SUPERIOR POLITECNICA DE CHIMBORAZO FACULTAD DE INFORMATICA Y ELECTRONICA.
“ACTIVIDADES RECREATIVAS PARA MEJORAR LA CONDUCTA SOCIAL EN ADOLESCENTES DE 12 A 14 AÑOS DEL BARRIO GUAMANI”. Autor: Lcda. CASTILLO DE LA ROSA FRANCIS.
DISEÑO EN CUADRADO LATINO Y GRECOLATINO
Capitulo 3 Análisis descriptivo inferencial: comparaciones de muestras
Instituto Nacional de Estadística y Geografía
Curso de Elaboración de Pruebas Prof. Gerardo A. Valderrama M
PRUEBA DE HIPÓTESIS: MUESTRAS PEQUEÑAS
ESTADÍSTICA UNIDIMENSIONAL
Análisis de varianza Paramétricos vs. No Paramétricos
Introducción a los modelos econométricos
CHI CUADRADO  2 OBJETIVOS –Describir situaciones donde es adecuado la utilización de la prueba de Chi Cuadrado (  2 ) –Formular Hipótesis para diferentes.
ANALISIS DE LA VARIANZA PROF. GERARDO A. VALDERRAMA M.
Correlación Lineal de Pearson y Regresión Lineal Simple
TEMA XXI. ESQUEMA GENERAL DISEÑO LONGITUDINAL DE MEDIDAS REPETIDAS SIMPLE Diseño de una muestra de sujetos. Estudio de las curvas de crecimiento Análisis.
LA COVARIANZA Y EL COEFICIENTE DE CORRELACIÓN LINEAL DE PEARSON
Procedimientos paramétricos
PREDICCIÓN Y ESTIMACIÓN
REGRESÍON LINEAL SIMPLE
Análisis of varianza (ANOVA) De un factor o unidireccional
ESTADÍSTICA UNIDIMENSIONAL
“Formulación de Hipótesis Estadística”
Kriging Consideremos información de determinada propiedad en el yacimiento y puntos en los cuales se tiene la estimación dea partir de los puntos.
COMPARACION DE MEDIAS Para comparar media utilizando la prueba T hay Ttres opciones diferentes utilizando contrastes de hipotesis sobre : PARA UNA MUESTRA.
Análisis descriptivo A.F.C. Naturaleza de las variables VARIABLES ESCALARES (CUANTITATIVAS) CONTINUAS T°: 36.5°C Utiliza decimales DISCRETAS 1 SUJETO.
PRUEBAS PARAMETRICAS Y NO PARAMETRICAS. Cómo aplicar las pruebas paramétricas bivariadas t de Student y ANOVA en SPSS. Caso práctico., María José Rubio.
ANALISIS DE VARIANZA
DISEÑO Y ANALISIS DE EXPERIMENTOS
El problema de la medición en psicología.
Identificación de los efectos de los diseños experimentales.
Operador de Suma La Letra Griega ∑ (sigma) se usa para indicar una suma, de manera qué:
ICPM050 – ECONOMETRÍA tema 03: ESTIMACIÓN MODELO LINEAL SIMPLE
Dr. Alejandro Salazar – El Colegio de Sonora
UNIVERSIDAD DE LOS ANDES CENTRO DE INVESTIGACIONES PSICOLÓGICAS
Regresión Lineal Simple
Grupos Correlacionados
Diseño experimental 2137 Juan C. Benavides
Correlación de Variables
Alumna : Karen Cabana Gil
Comparación de medias para datos relacionados
MEDIDAS DE DISPERSIÓN “Medidas de dispersión”. Miden qué tanto se dispersan las observaciones alrededor de su media. MEDIDAS DE DISPERSIÓN.
diseño de investigación
Tema 5: Asociación. 1. Introducción. 2. Tablas y gráficas bivariadas.
01/08/ Escuela Nacional de Estadística e Informátia Muestreo I Muestreo Aleatorio Estratificado Prof. Willer David Chanduvi Puicón.
PRUEBAS ESTADISTICAS NO PARAMETRICAS. Pruebas tradicionales Necesitan la especificación de una distribución Son métodos robustos para las distribuciones.
ANALISIS DE REGRESION SIMPLE
TRATAMIENTO Y EVALUACION DE RESULTADOS ANALITICOS 1.Conceptos generales sobre la medida. Tipos de errores, concepto, componentes, corrección. Distribución.
1 Afectados de cierto grado de INCERTIDUMBRE SIEMPRE HAY UN ERROR EN SU MEDIDA ESTABLECER LA FIABILIDAD DE LOS DATOS ¿Podemos evaluar la magnitud del error.
DISEÑO Y ANALISIS DE EXPERIMENTOS
ESTADÍSTICA APLICADA  ZEUS DE JESÚS RODRÍGUEZ BUDA  GABRIELA MÁRQUEZ TORRES  MARÍA ENRIQUETA GIL CÓRDOVA  ELIÁN ANTONIO GONZALEZ GARCÍA  CRISTELL.
REGRESION LINEAL SIMPLE
Estadística Aplicada a las Ciencias Políticas Hemos visto que había una relación aproximadamente lineal entre población y escaños. Buscamos una medida.
¿QUÉ ES UN DISEÑO INTRASUJETO?
VARIANZA Y Y COVARIANZA DE VARIABLES ALEATORIAS Estadística II MI. MARTHA PAMELA RAMÍREZ VELA ITESM CAMPUS SALTILLO 1.
Transcripción de la presentación:

Anova Intragrupo Profesora: Carolina Mora

Muestras Relacionadas tenemos a los mismos sujetos con observaciones o puntuaciones en la misma variable pero en condiciones distintas (por ejemplo: la efectividad de un procedimiento para mejorar la memoria en tras condiciones distintas: sin estrés, con bajo estrés y con alto estrés) los mismos sujetos en la misma condición pero en tiempos distintos. Por ejem plo, medir el nivel de aprendizaje, antes (preprueba), después de aplicar un tratamiento (postprueba) y a los 3 meses (seguimiento) También puede tratarse de sujetos físicamente distintos pero igualados en variables relevantes (variables que controlamos con esta igualación.

Ventajas del Anova Intragrupo Una ventaja de utilizar a los mismos sujetos en tratamientos experimentales es que necesitaremos menos sujetos que si se trata de muestras independientes

Ejemplo cuando varios profesores evalúan a los mismos alumnos ¿De dónde vienen las diferencias? ¿De que los alumnos son distintos y los profesores tienden a coincidir en sus juicios? (éste sería un resultado deseable) ¿O de que los profesores son distintos en su modo de evaluar? Prof. 1 Prof. 2 Prof. 3 Prof. 4 Alumno 1 10 6 8 7 Alumno 2 4 5 3 Alumno 3 Alumno 4 2 Alumno 5 Alumno 6 9

Supuestos del ANOVA de Medidas Repetidas Al igual que en los diseños anteriores, antes de aplicar el modelo de análisis de la varianza a los da tos de un determinado estudio, es necesario evaluar los supuestos de aplicación. Nos pararemos en el supuesto de independencia de las observaciones, ya que es muy importante en los diseños de Medidas Repetidas. En el caso de los diseños con medidas repetidas, dado que son los mismos sujetos los que reciben cada una de las condiciones experimentales, es muy probable que aparezca correlación entre sus puntuaciones y, por tanto, que se incumpla este supuesto (independencia de las observaciones), que es el más importante del ANOVA. Cuando se mide en varias veces sucesivas a los mismos sujetos (y siempre que tengamos muestras relacionadas), estas medidas están correlacionadas; en este caso bajan los cuadrados medios del término del error (el denominador de la razón F) y se obtiene con mayor facilidad un valor de F significativo.

La condición de esfericidad Un supuesto implícito en este modelo (medidas repetidas), es que para que los valores de F con los grados de libertad especificados sean válidos (es decir, que correspondan a la probabilidad indicada en las tablas), debe cumplirse la condición denominada de esfericidad, que viene a decir que las covarianzas entre cada par de tratamientos son las mismas (de ocasión a ocasión el cambio es idéntico).

Covarianza Dos variables están relacionadas si varían conjuntamente. Por ejemplo, peso y altura en una muestra de niños de 5 a 12 años: los mayores en edad son también los más altos y pesan más, y los más jóvenes son los que pesan menos y son más bajos de estatura; En otro ejemplo, tenemos una relación negativa entre edad y fuerza física en una muestra de adultos de 30 a 80 años de edad: los mayores en edad son los menores en fuerza física

Interpretación de la covarianza Cov(x,y) > 0 si X e Y tienden a moverse en la misma dirección Cov(x,y) < 0 si X e Y tienden a moverse en direcciones opuestas Cov(x,y) = 0 si X e Y no están relacionadas linealmente. Correlación y covarianza son términos conceptualmente equivalentes, ya que expresan lo mismo.

Cómo se calcula la covarianza? Inconveniente de la covarianza En nuestro ejemplo, la covarianza es 64.57 ¿Indica una relación fuerte o no?

Comparación de correlación y covarianza Aunque el coeficiente de correlación y la covarianza son medidas de la asociación lineal, se diferencian de la siguiente manera: Los coeficientes de correlación están estandarizados. Por lo tanto, una relación lineal perfecta da como resultado un coeficiente de 1. Los valores de covarianza no están estandarizados. Por lo tanto, el valor de una relación lineal perfecta depende de los datos. Y este valor puede llegar hasta el infinito El coeficiente de correlación depende de la covarianza. El coeficiente de correlación es igual a la covarianza dividida entre el producto de las desviaciones estándar de las variables. Por lo tanto, una covarianza positiva siempre producirá una correlación positiva y una covarianza negativa siempre generará una correlación negativa.

Consecuencias del incumplimiento del Supuesto de esfericidad En consecuencia, el incumplimiento de este supuesto repercute gravemente en los resultados arrojados por la prueba F, ya que no es robusta ante observaciones correlacionadas. Concretamente, la correlación entre las puntuaciones provoca un sesgo positivo en la prueba F, aumentando la probabilidad de cometer errores tipo I. Es decir, aumenta la probabilidad de encontrar resultados estadísticamente significativos cuando, realmente, no lo son

La W de Mauchly Uno de los test más utilizados para evaluar el supuesto de esfericidad es la W de Mauchly Interpretación del test de Mauchly: Se asume la esfericidad cuando Maunchly es mayor que .05. Cuando hay esfericidad entonces, los datos se pueden analizar mediante el ANOVA intragrupo sin correr el riesgo de obtener un valor sesgado de la prueba F. Sin embargo, si se rechaza la H0, el supuesto de esfericidad no se puede mantener y, por tanto, el ANOVA no es apropiado para analizar los datos

La W de Maunchly Es mayor que .05 (se asume esfericidad) Analizar los datos mediante el ANOVA Se usa el indicador de esfericidad asumida Es menor que .05 no se asume esfericidad Propuestas Mantener el ANOVA con ajustes Cada una de estas correcciones se han desarrollado para alterar los grados de libertad y producir un cociente F donde se reduce la tasa de error de Tipo I. Greenhouse-Geisser (más conservador) Huynh y Feldt (más liberal) Utilizar MANOVA

Ajustes Los ajustes se realizan mediante el parámetro épsilon. El programa SPSS proporciona tres valores para épsilon, que aparecen en la salida en la misma tabla que el test de Mauchly. Se recomienda el de Greenhouse-Geisser, ya que habitualmente proporciona valores menos extremos. El estadístico epsilon expresa en qué medida se apartan los datos del requisito de esfericidad A mayor valor de epsilon, los datos se adaptan mejor a la esfericidad. A menor valor de epsilon los datos se apartan más de la esfericidad

Epsilon Al emplear la corrección epsilon, lo que tendremos es una F empírica como sigue: Observa que la F empírica no se verá alterada por la corrección epsilon, dado que afecta por igual el numerador y el denominador de la razón F.

Ejemplo de Resultados SPSS Aciertos en función de los grados de alcohol consumidos para tres grupos de sujetos. (muestras relacionadas)

los resultados para las sumas de cuadrados, grados de libertad, etc los resultados para las sumas de cuadrados, grados de libertad, etc. adecuados son los que corresponden a “Esfericidad asumida”. El resultado del ANOVA, por tanto, indica que existen diferencias estadísticamente significativas en los aciertos obtenidos entre los tres niveles de alcoholemia.

La respuesta a la pregunta ¿entre qué niveles concretamente La respuesta a la pregunta ¿entre qué niveles concretamente? nos la proporciona el análisis de factores principales que solicitamos en Opciones y que aparece en la tabla Comparaciones por pares.

Cálculo Manual del ANOVA INTRAGRUPO Prof. 1 Prof. 2 Prof. 3 Prof. 4 Alumno 1 10 6 8 7 Alumno 2 4 5 3 Alumno 3 Alumno 4 2 Alumno 5 Alumno 6 9 las filas son alumnos (f = 6) y las columnas son profesores (c = 4) que han evaluado en la misma característica a los seis alumnos. Si la varianza de las filas (alumnos) es estadísticamente significativa (superior a lo aleatorio) se debe sobre todo a que los alumnos son distintos Si la varianza de las columnas es estadísticamente significativa se debe a que los profesores son distintos en su estilo de evaluar (pueden ser, por ejemplo, más o menos benévolos) Pero también podríamos encontrar el efecto de la interacción profesor-alumno (algunos profesores pueden sentirse inclinados a valorar mejor o peor a determinados alumnos).

La SS intergrupal NO se calcula para el ANOVA de medidas repetidas porque no tenemos varios grupos a comparar, ya que se trata de un solo grupo medido en distintas ocasiones SST SS inter grupal SS Intra sujeto SSM efecto del experimento SS profesores SS Alumnos SS interacción profesores/alumnos Error SSR

Cálculo de la SSM intrasujetos Comparación de cada valor con respecto a la media total

SS profesores SS profesores: 115,96 – 108,83 = 7.18 Comparación de la puntuación de Cada profesor con respecto a su propia media SS profesores: 115,96 – 108,83 = 7.18

SS alumnos SS alumnos: 115,96 – 31.75 = 84.19 Comparación de la puntuación de cada alumno con respecto a su propia media SS alumnos: 115,96 – 31.75 = 84.19

SS interacción alumno/profesor SST SS inter grupal SS Intra sujeto SSM efecto del experimento SS profesores SS Alumnos SS interacción profesores/alumnos Error SSR SS interacción profesores/alumnos Calculo de la varianza producida por la interacción profesor/alumno SSM=SS profesores + SS Alumnos + SS interacción SS interacción = SSM – SS profesores – SS alumnos SS interacción = 115.96 – 7.18 – 84.19 SS interacción = 24.58

De los alumnos (las filas) Grados de libertad De los alumnos (las filas) F-1 6- 1 5 De los profesores (las columnas) C-1 4-1 3 De la interacción (alumnos x profesores) (f-1) (c-1) 5 x 3 15 Del total N-1 24 - 1 23

Cálculo de F La varianza se debe a que los alumnos son distintos, no a que los profesores son distintos.