Experimentos con un solo factor: anÁlIsis de varianza

Slides:



Advertisements
Presentaciones similares
DISEÑO DE EXPERIMENTOS EXPERIMENTOS DE COMPARACIÓN SIMPLE
Advertisements

ANOVA DE UN FACTOR.
Tema 17: Contraste paramétrico de hipótesis II: Pruebas de contraste para más de dos grupos independientes (ANOVA entresujetos): un y dos factores completamente.
Tema 19: Contraste no paramétrico de hipótesis: Conceptos básicos
Elementos del Diseño de Experimentos y Análisis de la Varianza
ANÁLISIS DE LA VARIANZA (ANOVA)
Universidad de Chile Facultad de Ciencias Químicas y Farmacéuticas
METODOLOGÍA DE INVESTIGACIÓN Titular: Agustín Salvia
Tema 6: Análisis de la Varianza (1ª parte: ANOVA simple)
ANOVA Modelo I: Comparación entre medias
Clases 3 Pruebas de Hipótesis
Inferencia Estadística
(niveles o categorías)
Prueba para la Bondad de ajuste Validación de Modelo
ANOVA (Analysis of Variation)
UNIVERSIDAD INCA GARCILASO DE LA VEGA
Curso de Bioestadística. ANOVA
Tema 17: Contraste paramétrico de hipótesis I: Pruebas de contraste para un grupo. Pruebas de contraste para dos grupos: independientes o relacionados.
Curso de Bioestadística. ANOVA
Amarilis García / Omaira De Los Santos.- Caracas, Diciembre 2009 USO DEL “ANÁLISIS DE VARIANZA UNA-VÍA”, PARA: Contrastar la hipótesis sobre, la diferencia.
Inferencia Estadística
Análisis de la Varianza
Diseño Completamente Aleatorizado: ejemplo
U de Mann Whitney.
Tema 6: Análisis de la Varianza
Amarilis García / Omaira De Los Santos.- Caracas, Diciembre 2009 USO DEL “ANÁLISIS DE VARIANZA UNA-VÍA”, PARA: Contrastar la hipótesis sobre, la diferencia.
PRUEBAS ESTADISTICAS NO PARAMETRICAS
USO DEL “ANÁLISIS DE VARIANZA UNA-VÍA”, PARA: Contrastar la hipótesis sobre, la diferencia de más de dos medias poblacionales. Guía Anova Una Vía: Introducción.
Análisis de los Datos Cuantitativos
Capitulo 4 Análisis descriptivo inferencial: comparaciones múltiples
Regresión Lineal Simple
DISEÑO Y ANALISIS DE EXPERIMENTOS DR. PORFIRIO GUTIERREZ GONZALEZ.
InfoStat. Software estadístico
DISEÑOS POR BLOQUES ALEATORIZADOS
(niveles o categorías)
UNIDAD I.- Analisis 3.4 Prueba de Hipotesis.
INTRODUCCIÓN AL ANÁLISIS DE DATOS CATEGÓRICOS. Temas Carácterísticas de la distribución Chi-cuadrada Prueba de bondad de ajustes Prueba de homogeneidad.
ANOVA.  Se utiliza para probar hipótesis sobre la igualdad de 3 o más medias poblacionales  Implica hacer un examen de las varianzas muestrales (de.
REGRECION LINEAL SIMPLE, MULTIPLE Y CORRELACION. REGRECION LINEAL SIMPLE.
Un criterio para detectar outliers. Otro criterio para detectar errores groseros (outliers)
Paola Andrea Penagos Verónica González J Métodos de Investigación III UdeA – Agosto de 2011 PRUEBA DE FRIEDMAN.
La distribución t es una distribución de probabilidad que surge del problema de estimar la media de una población normalmente distribuida cuando el tamaño.
Danny Rafael Amaya Cotes Marcos Elías López Guerra.
UNIVERSIDAD DE ANTIOQUIA FACULTAD NACIONAL DE SALUD PÚBLICA “Héctor Abad Gómez” Facultad Nacional de Salud Pública “Héctor Abad Gómez”
PRESENTADO POR: JOHANNA ANDREA RODRIGUEZ MORENO.  Descubierta por William S. en 1908, la distribución de T normalmente se llama distribución de t de.
MÁS DE DOS MUESTRAS Procedimientos paramétricos. Pruebas de diferencias entre más de dos muestras *Con cálculos diferentes de SC y gl, según el caso.
VERIFICACIÓN DEL SUPUESTO: DE IGUALDAD DE VARIANZAS: OBSERVACIÓN GRÁFICA Y PRUEBA DE BARTLETT.
Prueba de Friedman Vanessa Restrepo Viviana Sanchez Luisa Arroyave
Tarea # 4 PRUEBAS DE HIPÓTESIS ESTADÍSTICAS. PRUEBA DE HIPÓTESIS Hipótesis es una aseveración de una población elaborado con el propósito de poner a prueba,
Inferencia estadística
Estimación estadística
Tarea # 2. La distribución uniforme es la que corresponde a una variable que toma todos sus valores, con igual probabilidad; el espacio muestral debe.
OVA CURSO UNIDAD 1 Capitulo Cuarto: Definiciones y herramientas estadísticas aplicadas a los diseños experimentales Lección 5. Análisis de varianza.
C ONCEPTOS BÁSICOS DE I NFERENCIA II 1. Teorema 1. Si X~N(µ, σ) y Y=aX+b donde a y b son constantes, entonces: Teorema 2. Si X1, X2, …, Xn son variables.
Carlos A. Andújar Rojas, Ph.D. 1. Razonamiento estadístico  Es el proceso por el que se utiliza la lógica para tratar de describir, explicar, predecir.
BIOESTADÍSTICA Y ESTADÍSTICA BÁSICA CHILLÁN, SEGUNDO SEMESTRE PROF. SOC. M© KEVIN VILLEGAS.
DISEÑO FACTORIAL. En muchas situaciones experimentales resulta de interés estudiar los efectos producidos por dos o más factores simultáneamente; esto.
ANÁLISIS DE VARIANZA DE UN FACTOR ANOVA I Dr. en Ed. Carlos Saúl Juárez Lugo Centro Universitario UAEM Ecatepec 2015.
Análisis de datos y metodología II Equipo de tutores 2015: -Diego Henríquez -Ivan Guailla -Denise Leiva -Patricio Mena -Leonardo Portillo -Cristian Ramírez.
Curso: Metodología de la Investigación – Semana 6.
INFERENCIA EN LOS MODELOS ARIMA ECONOMETRÍA II CAPÍTULO VI D to de Economía Aplicada Cuantitativa I Basilio Sanz Carnero.
ANALISIS DE VARIANZA.
Taller introducción a los conceptos básicos de Estadística PRIMERA PARTE 2016 Propósito: Introducir algunos conceptos básicos de Estadística por medio.
Comparación no paramétrica de K medias independientes Briana Gómez Ramírez Natalia Zapata López.
1234 Guadalupe Ruiz Merino – Curso de Estadística Básica 56 ESTIMACIÓN Y CONTRASTE DE HIPÓTESIS.
Estadística y Biometría Modelación Estadística Regresión lineal.
PRESENTADO POR : BRIGITTE HERNÁNDEZ PRESENTADO A : ORFIDIA OVALLE GRUPO 3 D.
Análisis of varianza (ANOVA) De un factor o unidireccional
DISEÑO Y ANALISIS DE EXPERIMENTOS
Transcripción de la presentación:

Experimentos con un solo factor: anÁlIsis de varianza

Temas Análisis de varianza (Ejemplo aplicado) Análisis del modelo con efectos fijos Descomposición de la suma de cuadrados total Análisis estadístico Estimación de los parámetros del modelo. Datos no balanceados.

Introducción El Análisis de la Varianza es, probablemente, la herramienta de inferencia estadística más utilizada en las investigaciones científico-técnicas. Esta compuesto por unidades llamadas tratamientos, los cuales consisten en un conjunto de acciones que se aplican a las unidades experimentales con la finalidad de observar como responden a éstas. El procedimiento usual es asignar aleatoriamente los tratamientos a las unidades experimentales. Se llama variable aleatoria observada o respuesta a la medida u observación que se obtiene de cada una de las unidades experimentales.

Ejemplos Los tratamientos consisten en sembrar tres variedades de trigo en las parcelas experimentales y observar la respuesta: rendimiento de la parcela. Se dice en este caso que el factor tratamiento (variedad) tiene 3 niveles. Se llama repetición a cada realización de un tratamiento Ejemplo: si se asignan 10 parcelas a cada cultivar, se tendrán 10 repeticiones para cada tratamiento.

¿cómo surge una ANOVA? Las técnicas iniciales de análisis de varianza fueron desarrolladas por el estadístico y genetista R.A Fisher, en los años 1920 y 1930. Debido a que se basa en la distribución F de Fisher como parte de contraste de hipotesis, a menudo se le lama “análisis de varianza de Fisher”

¿Para que hacer una ANOVA? Su verdadero objetivo (la mayoría de veces) no es la variabilidad, sino otros contrastes como la igualdad de medias ó el ajuste en un problema de regresión. El objetivo del ANOVA de efectos fijos es contrastar la hipótesis de que los efectos de tratamientos son nulos versus que al menos uno no lo es. En términos estadísticos: H0: τ1=...=τa= 0 H1: Al menos un tratamiento tiene efecto no nulo.

¿En que consiste la ANOVA? Consiste en descomponer la variabilidad de una población (representada por una varianza) en diversos sumandos según los factores que intervengan en la creación de esa variabildiad. Normalmente el modelo se indica en terminos de variables dependientes, independientes. Hay algunos factores que no se incluyen, pero se deben controlar.

Comparación de medias

Modelo de una anova de una vía

Descomposición de la varianza (ANOVA)

Generalidades de la ANOVA de efectos fijos Sirve para comparar las medias de mas de 2 grupos La variable dependiente es cuantitativa. La variable independiente (Factor de estudio) es cualitativa ó categórica. No es necesario que todos los grupos sean del mismo tamaño. Cuanto mayor es el tamaño de los grupos, es menos importante garantizar la normalidad ó la homocedasticidad

Características y supuestos Permite comparar 3 o más medias para ver si son iguales, controlando el error. Existen 3 supuestos: Independencia de las observaciones y de los errores. Normalidad de los datos Homogeneidad de varianzas (Homocedsticidad): Igualdad de las varianzas de los grupos. Ejemplo: Prueba de Hartley (F)

Independencia de observaciones Un ejemplo de un gráfico en el que no se observan patrones sospechosos en la distribución de residuos es el siguiente:

Supuesto de Normalidad un Q-Q plot de residuos obtenidos a partir de un modelo con errores normales homocedásticos

Prueba de homogeneidad de varianzas (Hartley)

Homogeneidad de varianzas (Levene).

Descomposición de la varianza

Varianza Total La variación total tiene en cuenta la varición en todas las unidades, tomando como referencia la gran media ó media total. Este valor se conoce como la suma de cuadrados totales. Cada dato es reconocido con dos sub-indices, el primero indica el grupo y se denota con la letra “i” y la segunda es la unidad dentro del grupo y se denota con la letra “j”.

Concepto gráfico

Varianza entre grupos La varianza entre grupos compara la media de cada grupo con respecto a la gran media. Es la varianza que mide la diferencia entre grupos Habitualmente el número de grupos se denota con la letra k. Se debe multiplicar por el valor de repeticiones.

Concepto gráfico

Varianza Intra-grupos Considera la variación que hay dentro de cada grupo. Los datos de la varianza se reunen en una tabla llamada: Tabla de análisis de varianza, que reune los valores de sumatoria de cuadrados y los llamados grados de libertad (gl ó ν)

Concepto gráfico

Cuadrados medios entre o dentro de los tratamientos Sean σ2E y σ2D las varianzas estimadas por el CME y el CMD respectivamente CMD=SSintra/(n-k) CME=Ssentre/(k-1) La prueba consiste en calcular el estadístico F utilizando los estimadores de σ2E y σ2D de la siguiente forma:

La partición de la suma de cuadrados y la tabla del ANAVA

Tabla ANOVA (Resumen) CM

Otra forma de presentar el ANOVA

Ejemplo

Ejemplo

Ejemplo

Pasos para el análisis de varianza

Pasos para el análisis de varianza

Ejemplo

Ejercicio (Tabla de resultados)

Ejercicio (Cuadro de resumen de ANOVA)

Anova

Pruebas “a posteriori” Si se rechaza Ho del ANAVA, la pregunta que sigue es: ¿cuál o cuáles de las medias poblacionales en estudio son las diferentes? Compararlas por pares con una prueba T no es un procedimiento adecuado, por lo que se deben hacer pruebas de comparaciones múltiples. Existen diferentes tipos de procedimientos entre los que se destacan a prueba de Tukey, la de Scheffé, la de Duncan, la de Dunnet y la de Fisher, entre otras.

La prueba de Tukey El estadístico de Tukey es el siguiente: donde qa,gld; (1-α) es el cuantil (1-α) que se obtiene de la distribución de Rangos Studentizados (Tabla) para a tratamientos y los grados de libertad dentro. n es el número de repeticiones con base en las que se calculan las medias muestrales. Si el tamaño de muestra no fuera el mismo para cada tratamiento, deberá reemplazarse n por la media armónica de los {ni}, esto es: Si el valor absoluto de la diferencia entre un par de medias supera a DMSt, se dice que esta diferencia es estadísticamente significativa (a es el número de medias, gld son los grados de libertad dentro).

La prueba de Fisher La prueba de Fisher es similar en su procedimiento a la prueba de Tukey, pero el estadístico de la prueba es diferente. En vez de usar los cuantiles de la distribución de rangos estudentizados utiliza los cuantiles de una t con los grados de libertad del cuadrado medio dentro de tratamientos y es particular para cada comparación de medias ya que depende del número de repeticiones por tratamiento