Tema 6: Análisis de la Varianza (1ª parte: ANOVA simple)

Slides:



Advertisements
Presentaciones similares
DISEÑO DE EXPERIMENTOS EXPERIMENTOS DE COMPARACIÓN SIMPLE
Advertisements

ANOVA DE UN FACTOR.
DISEÑO DE EXPERIMENTOS
BUENAS TARDES.
Diseño de Experimentos
Tema 17: Contraste paramétrico de hipótesis II: Pruebas de contraste para más de dos grupos independientes (ANOVA entresujetos): un y dos factores completamente.
MÉTODOS Y DISEÑOS DE INVESTIGACIÓN METODOLOGÍAS DE INVESTIGACIÓN
EJEMPLO.
Tema 19: Contraste no paramétrico de hipótesis: Conceptos básicos
De la muestra a la población
KRUSKAL WALLIS Jorge Iván Betancur Marta Isabel Naranjo García
Pronósticos, Series de Tiempo y Regresión
Elementos del Diseño de Experimentos y Análisis de la Varianza
Bioestadística Diplomado en Sanidad
Comprobación de diferencias entre medias
Bloques aleatorizados, cuadrados latinos y diseños relacionados
Experimentos con un solo factor: el análisis de varianza
ANÁLISIS DE LA VARIANZA (ANOVA)
CATALINA AGUDELO, HAIDY PAOLA, JULIETH PINO
Contraste de Hipótesis ETSITGC Madrid Unidad Docente de Matemáticas.
TEMA VII.
ESTRATEGIAS Y DISEÑOS AVANZADOS DE INVESTIGACIÓN SOCIAL
ANOVA Modelo I: Comparación entre medias
CURSO DE ESTADÍSTICA BÁSICA
Prueba de hipótesis Equivalencia entre la prueba de hipótesis y los intervalos de confianza Valor de probabilidad Valor de probabilidad unilateral Prueba.
Clases 3 Pruebas de Hipótesis
Inferencia Estadística
(niveles o categorías)
Unidad VI: PRUEBAS DE HIPOTESIS
Diseño en bloques completamente aleatorizados
Análisis de experimentos con submuestras balanceadas
ANOVA (Analysis of Variation)
Tema 7: Regresión Simple y Múltiple. EJEMPLO: Aproxima bien el número de préstamos que efectúa una biblioteca a lo largo de su primer año de vida. Nos.
ESTADÍSTICA BÁSICA EN ECOLOGÍA EVOLUTIVA Juan J. Soler Cruz Estación Experimental de Zonas Áridas Almería.
Estadística aplicada a la educación
Tema 7: Regresión Simple
Análisis Cuantitativo de Datos (Básico)
Titular: Agustín Salvia
Normalidad, Variabilidad y estimación del Modelo de Regresión
Tema 6: Análisis de la Varianza (2ª parte: ANOVA multifactorial)
Amarilis García / Omaira De Los Santos.- Caracas, Diciembre 2009 USO DEL “ANÁLISIS DE VARIANZA UNA-VÍA”, PARA: Contrastar la hipótesis sobre, la diferencia.
Análisis de la Varianza
U de Mann Whitney.
Tema 5: Numéricas en varios grupos
Capítulo 1. Conceptos básicos de la Estadística
Tema 5: Contrastes de Hipótesis no-paramétricos
Tema 6: Análisis de la Varianza
Regresión lineal simple
Regresión lineal múltiple
Pruebas de hipótesis.
PRUEBAS ESTADISTICAS NO PARAMETRICAS
Métodos Cuantitativos
Taller 2 Reflexiones sobre Metodología Cuantitativa: Potencial de la comparación de muestras Germán Fromm R.
PARA LA REGRESIÓN LINEAL SIMPLE
Capitulo 4 Análisis descriptivo inferencial: comparaciones múltiples
Regresión Lineal Simple
Prueba de Hipótesis Una hipótesis estadística es un supuesto que se establece sobre las características de una distribución poblacional El estudio se plantea.
DISEÑOS DE EXPERIMENTOS FACTORIALES
Pruebas paramétricas y no paramétricas
DISEÑOS POR BLOQUES ALEATORIZADOS
Departamento de Informática Universidad Técnica Federico Santa María EconometríaEconometría Capitulo II.
(niveles o categorías)
REGRESIÓN LINEAL SIMPLE. Temas Introducción Análisis de regresión (Ejemplo aplicado) La ecuación de una recta Modelo estadístico y suposiciones Estimación.
REGRESIÓN LINEAL SIMPLE TEMA INTRODUCCIÓN Determinar la ecuación de regresión sirve para: – Describir de manera concisa la relación entre variables.
Experimentos con un solo factor: anÁlIsis de varianza
MÁS DE DOS MUESTRAS Procedimientos paramétricos. Pruebas de diferencias entre más de dos muestras *Con cálculos diferentes de SC y gl, según el caso.
1 REGRESIÓN CON VARIABLES DICOTÓMICAS TEMA 1 (CONTINUACIÓN)
Free and Quick translation of Prof. Anderson's slides1 Analisis de Regresion Multiple y =  0 +  1 x 1 +  2 x  k x k + u 1. Estimacion.
ANALISIS DE VARIANZA.
Transcripción de la presentación:

Tema 6: Análisis de la Varianza (1ª parte: ANOVA simple)

PROBLEMA 1: Dada una variable cuantitativa continua Y, y una variable cualitativa F, determínese si entre ambas hay relación, o no. Ejemplos: Tiempo de cura / medicamento utilizado Rendimiento de cosechas / fertilizante Renta familiar / hábito de lectura Número de préstamos / ubicación PROBLEMA 2: Dada una variable cuantitativa continua Y, y varias variables cualitativas F1, F2,…, Fn, determínese cuáles de ellas infuyen en Y, y cuáles no (es decir, cuáles guardan relación con Y). Ejemplos: Tiempo de cura / medicamento utilizado, grupo sanguíneo Número de préstamos / sexo, nivel de estudios, afición al cine

PROBLEMA 1: Dada una variable cuantitativa continua Y, y una variable cualitativa F, determínese si entre ambas hay relación, o no. Y: variable respuesta (numérica) F: factor (cualitativa) ANOVA simple PROBLEMA 2: Dada una variable cuantitativa continua Y, y varias variables cualitativas F1, F2,…, Fn, determínese cuáles de ellas infuyen en Y, y cuáles no (es decir, cuáles guardan relación con Y). Y: variable respuesta (numérica) F1, F2,…, Fn : factores (cualitativas) ANOVA multifactorial

Y: variable respuesta (numérica) F: factor (cualitativa) 1. ANOVA simple: idea ¿Son independientes Y y F? ¿Hay relación entre Y y F? ¿Hay diferencias significativas en el valor de Y, según que F tome uno u otro valor? ¿Influye F en el valor de Y? ¿Hay diferencias en los valores de Y, entre los distintos grupos determinados por F? Medias en cada nivel de factor Y µ2 µ1 µ3 F 1 2 3 Niveles de factor

Si el valor de F no guarda relación con el de Y… ¿Cómo deberían ser Y: variable respuesta (numérica) F: factor (cualitativa) Si el valor de F no guarda relación con el de Y… ¿Cómo deberían ser µ1, µ2, µ3? Y Media global µ2 µ µ1 µ3 F 1 2 3

H1: alguna µi es distinta H0 equivalente a: Y, F son independientes; Y, F no guardan relación; F no influye en el valor de Y; no hay diferencias significativas en Y según distintos valores de F, etc. Rechazar H0 equivale a encontrar dependencia entre F e Y.

Pizarra H0: µ1= µ2= … = µn H1: alguna µi es distinta ? ¿Cómo contrastar H0: µ1= µ2= … = µn H1: alguna µi es distinta ? Mala idea: varios contrastes H0: µi=µk H1: µi≠µk Buena idea: descomposición de la variabilidad Error de tipo I se acumula, la confianza “total” es demasiado baja Pizarra

Yik: el primer subíndice (i) indica el valor del nivel del factor; el Residuo del dato Yik: Yik-µi Y Media global µ2 µ µ1 µ3 F 1 2 3 Yik: el primer subíndice (i) indica el valor del nivel del factor; el segundo (k), el orden que ocupa el dato dentro de los perte- necientes a ese nivel del factor.

Varianzas ó cuadrados medios TABLA DE ANOVA: Fuente de variación Suma de cuadrados Grados de libertad Varianzas ó cuadrados medios Cociente-F Entre-grupos(VE) I-1 Intra-gruposó residual ó no explicada (VNE) N-I Total (VT) N-1 Raíz cuadrada de se2: error experimental

TABLA DE ANOVA: SCE: suma de cuadr. explicada o entre-grupos SCR: suma de cuadr. residual o intra-grupos SCT: suma de cuadr. totales

(es decir, rechazamos cuando la variabilidad explicada es grande) H0: µ1= µ2= … = µn H1: alguna µi es distinta ? Rechazamos si p-valor < nivel de significación Intuitivamente, aceptaremos cuando la variabilidad explicada es pequeña (es decir, rechazamos cuando la variabilidad explicada es grande) Statgraphics

Resumen: Concepto Valor Estim. Media total μ Media de cada nivel (grupo) μi Efecto de cada nivel (grupo) αi=μi-μ Residuo εij = yii-μi

Error experimental (σ) Concepto Variabilidad total (VT ó SCT) Variab. Residual (VR ó VNE ó SCR) Variab. Explicada (VE ó SCE) Error experimental (σ) Coef. Det. R2 (VE/VT) x 100

2. El modelo de ANOVA simple Descripción del modelo: PIZARRA Requisitos del modelo: 1.- Normalidad en cada nivel de factor. 2.- Homocedasticidad (igual varianza en cada nivel de factor) 3.- Independencia de las observaciones: residuos aleatorios. H0: σ1= σ2= … = σn H1: alguna σi es distinta

Se traducen en que los residuos son Requisitos del modelo: 1.- Normalidad en cada nivel de factor. 2.- Homocedasticidad (igual varianza en cada nivel de factor) 3.- Independencia de las observaciones: residuos aleatorios. Se traducen en que los residuos son aleatorios, y siguen una normal N(0,σ) Error experimental

¿Qué hacer si alguna hipótesis falla? Si falla la homocedasticidad, siempre que no haya grandes diferencias entre el número de observaciones en los distintos grupos (niveles de factor), el ANOVA sigue siendo fiable. - El contraste de ANOVA es robusto frente a la violación del supuesto de normalidad. El no-cumplimiento de esta hipótesis sí puede afectar a la estimación del error experimental. - Transformaciones de los datos…

¿Qué hacer si alguna hipótesis falla? El verdadero problema es la independencia de las observaciones. La violación de este supuesto sí pone en duda las conclusiones del ANOVA; suele ser debido a: 1.- errores en el muestreo (efecto aprendizaje, descuidos, falta de aleatorización, etc.) 2.- existencia de otros factores que también influyen en la variable respuesta, y no han sido tomados en consideración (necesidad de aplicar no un ANOVA con un factor, sino un ANOVA multifactorial)

De hecho, la independencia de las observaciones debería quedar garantizada por el modo en que se ha diseñado el estudio: Modelo correcto: evidencia razonable de que hay un único factor que pueda tener influencia sobre Y. (2) Una correcta recogida de los datos: Principio de aleatorización. “Todos los factores no controlados por el experimentador y que puedan influir en los resultados, deben asignarse al azar a las obser- vaciones” (D.Peña).

Statgraphics IMPORTANTE: si se rechaza la hipótesis nula, en el contraste de ANOVA, eso significa que no todas las medias son iguales. Sin embargo, puede que algunas sí que sean iguales. Para decidir qué grupos tienen medias similares, descomponemos los niveles del factor en grupos homogéneos. Statgraphics

3. Contraste de Kruskal-Wallis - Método no-paramétrico Util si fallan los requisitos del ANOVA (aunque inferior a ANOVA). Realiza un contraste sobre las medianas H0: M1= M2=…= Mn H1: alguna Mi es distinta. - Utiliza la noción de rango. La idea es ordenar de menor a mayor todos los datos (sin atender al nivel del factor del que provienen), asignar rangos, y comparar después los rangos medios correspondientes a los distintos niveles del factor.