Clases 3 Pruebas de Hipótesis

Slides:



Advertisements
Presentaciones similares
DISEÑO DE EXPERIMENTOS EXPERIMENTOS DE COMPARACIÓN SIMPLE
Advertisements

ANOVA DE UN FACTOR.
PRUEBAS DE HIPÓTESIS.
BUENAS TARDES.
Tema 16: Contraste paramétrico de hipótesis I: Pruebas de contraste para un grupo. Pruebas de contraste para dos grupos: independientes o relacionados.
Tema 19: Contraste no paramétrico de hipótesis: Conceptos básicos
KRUSKAL WALLIS Jorge Iván Betancur Marta Isabel Naranjo García
ANÁLISIS DE LA VARIANZA (ANOVA)
La prueba U DE MANN-WHITNEY
Universidad de Chile Facultad de Ciencias Químicas y Farmacéuticas
PRUEBAS DE HIPOTESIS HIPOTESIS
Prueba de Hipótesis La Prueba t Carlos B. Ruiz-Matuk.
METODOLOGÍA DE INVESTIGACIÓN Titular: Agustín Salvia
TUTORIAL SPSS Comparación de medias con el Paquete Estadístico para las Ciencias Sociales Unidad 4.
Tema 6: Análisis de la Varianza (1ª parte: ANOVA simple)
ANOVA Modelo I: Comparación entre medias
Definición de Hipótesis de Investigación.
Prueba de hipótesis Equivalencia entre la prueba de hipótesis y los intervalos de confianza Valor de probabilidad Valor de probabilidad unilateral Prueba.
Tests de hipótesis Los tres pasos básicos para testear hipótesis son
Capítulo III Análisis de varianza.
Unidad VI: PRUEBAS DE HIPOTESIS
CHI-CUADRADO Y DISTRIBUCION NORMAL
Clases 4 Pruebas de Hipótesis
ANOVA (Analysis of Variation)
Estadística Administrativa II
ANALISIS DE DATOS CATEGORICOS
UNIVERSIDAD INCA GARCILASO DE LA VEGA
Este procedimiento mide la relación entre la intensidad de un estímulo y la proporción de casos que presentan una cierta respuesta a dicho estímulo. Es.
Universidad de Chile Facultad de Ciencias Químicas y Farmacéuticas
Estadística Administrativa II
Inferencias con datos categóricos
Curso de Bioestadística. ANOVA
Inferencia Estadística
ESTIMACIÓN ESTADÍSTICA POR INTERVALO DE CONFIANZA
PRUEBAS DE BONDAD DE AJUSTE
Análisis de variancia Capítulo once OBJETIVOS
ANÁLISIS DE LA INFORMACIÓN Descripción de los datos
Capítulo 1. Conceptos básicos de la Estadística
COMPARACION DE MEDIAS Para comparar media utilizando la prueba T hay Ttres opciones diferentes utilizando contrastes de hipotesis sobre : PARA UNA MUESTRA.
Pruebas de hipótesis.
PRUEBAS ESTADISTICAS NO PARAMETRICAS
Pruebas de hipótesis.
Taller 2 Reflexiones sobre Metodología Cuantitativa: Potencial de la comparación de muestras Germán Fromm R.
PARA LA REGRESIÓN LINEAL SIMPLE
Análisis de los Datos Cuantitativos
Capitulo 4 Análisis descriptivo inferencial: comparaciones múltiples
BASES PARA EL RAZONAMIENTO EN ESTADÍSTICA INFERENCIAL
ESTIMACIÓN DE PARÁMETROS
Prueba de Hipótesis Una hipótesis estadística es un supuesto que se establece sobre las características de una distribución poblacional El estudio se plantea.
PRUEBA DE HIPÓTESIS DE LA DISTRIBUCIÓN “Z” PARA DOS PROPORCIONES.
Regresión lineal simple Nazira Calleja
Aspectos generales de la investigación educativa en el SNIT
CONTRASTE DE HIPÓTESIS Dimensiones Largo275mm. 169 mm 2 Ancho175mm.49 mm 2 Alto175mm.49 mm 2 Peso16 Kg.1 Kg 2. SITUACIÓN PROBLEMA.
Pruebas paramétricas y no paramétricas
Estadística Administrativa II
UNIDAD I.- Analisis 3.4 Prueba de Hipotesis.
INTRODUCCIÓN AL ANÁLISIS DE DATOS CATEGÓRICOS. Temas Carácterísticas de la distribución Chi-cuadrada Prueba de bondad de ajustes Prueba de homogeneidad.
CAPACITACIÓN, INVESTIGACIÓN, ESTADÍSTICA Y MERCADEO
TAMAÑO DE LA MUESTRA. Para definir el tamaño de la muestra se debe tener en cuenta los recursos disponibles y las necesidades del plan de análisis, el.
DISTRIBUCIÓN “t” DE STUDENT
RESUMEN DE LA DISTRIBUCION MUESTRAL PARA LA MEDIA MUESTRAL X INTERVALOS DE CONFIANZA PARA LA MEDIA POBLACIONAL  TIPO DE PROBLEMA ESPERANZA Y VARIANZA.
MÁS DE DOS MUESTRAS Procedimientos paramétricos. Pruebas de diferencias entre más de dos muestras *Con cálculos diferentes de SC y gl, según el caso.
PRUEBA DE SIGNIFICANCIA
Yulieth ariza Villarreal Estadística II. Historia La distribución de Student fue descrita en 1908 por William Sealy Gosset. Gosset trabajaba en una fábrica.
TAMAÑO DE LA MUESTRA Alvaro Alfredo Bravo Dpto. de Matemáticas y Estadística Universidad de Nariño - Colombia.
PRUEBA DE SIGNIFICANCIA
7.2 P ROCEDIMIENTOS PARAMÉTRICOS PARA DATOS CUANTITATIVOS Dos muestras Intervalos de confianza.
ANALISIS DE VARIANZA.
Evaluando los promedios de grupos distintos UNIDAD 7 1.
Transcripción de la presentación:

Clases 3 Pruebas de Hipótesis Curso de Metodología de la Investigación Profesor Manuel Lobos González Año 2011

Análisis de la Varianza de un factor (ANOVA) El análisis de la varianza (ANOVA) es una técnica estadística paramétrica de contraste de hipótesis. El ANOVA de un factor sirve para comparar varios grupos en una variable cuantitativa. Se trata, por tanto, de una generalización de la Prueba T para dos muestras independientes al caso de diseños con más de dos muestras. A la variable categórica (nominal u ordinal) que define los grupos que deseamos comparar la llamamos independiente o factor y la representamos por VI. A la variable cuantitativa (de intervalo o razón) en la que deseamos comparar los grupos la llamamos dependiente y la representamos por VD. La hipótesis nula que se pone a prueba en el ANOVA de un factor es que las medias poblacionales (las medias de la VD en cada nivel de la VI) son iguales. Si las medias poblacionales son iguales, eso significa que los grupos no difieren en la VD y que, en consecuencia, la VI o factor es independiente de la VD.

Condiciones: Cada muestra debe ser independiente de las otras. ANOVA Condiciones: Cada muestra debe ser independiente de las otras. Cada muestra debe haber sido seleccionada al azar de la población de donde proviene. Las población de donde provienen las muestras debe tener distribución normal. Las varianzas de cada población deben ser iguales.

ANOVA Ejemplo Una Directora de un colegio, preocupada de explicar los problemas de comportamiento de sus estudiantes, se dispuso a hacer un estudio para establecer si existían diferencias en ese aspecto según estado civil de los padres, entre otras variables. Para ese fin, solicitó a los padres de 45 niños la aplicación del Child Behavior Checklist, versión para padres. El CBCL (Achenbach, 1991) es un instrumento conformado por 113 ítems que comprenden problemas específicos, agrupados en síndromes que exploran dos tipos de anomalías de conducta: externalización (agresión, delincuencia y trastornos de conducta) e internalización (aislamiento, preocupaciones somáticas, depresión y ansiedad). Además, (Friedrich et al., 1986) seis de sus ítems conforman la escala de problemas sexuales, la que sólo se aplica a niños y niñas mayores. Los ítems son categorizados 0=no es cierto o nunca observado, 1=es cierto algunas veces o de cierta manera, 2=muy cierto o a menudo cierto. El puntaje total se obtiene a partir de la suma de los parciales.

Paso 1: Obtiene los siguientes datos ANOVA Paso 1: Obtiene los siguientes datos CASADO SEPARADO VIUDO SOLTERO 10 23 78 22 19 62 70 36 90 48 55 30 68 28 45 73 41 29 40 38 32 43 60 50 46 54 61 42 49 58 66 15   25 63

ANOVA Paso 2: Calculamos la media de cada grupo y la media global CASADO SEPARADO VIUDO SOLTERO 10 23 78 22 19 62 70 36 90 48 55 30 68 28 45 73 41 29 40 38 32 43 60 50 46 54 61 42 49 58 66 15   25 63 35,21 46,27 58,18 45,08 45,53

ANOVA Paso 3: Calculamos la suma de cuadrados de las desviaciones de cada observación respecto a la media global, suma que denominaremos Suma de Cuadrados Total (SCT) y que refleja la variabilidad total. Si se divide por el tamaño total de muestra se obtiene la varianza total.

ANOVA 16695,208 CASADO SEPARADO VIUDO SOLTERO 1262,26 507,52 1054,41 553,58 703,75 271,32 598,86 90,79 1977,73 6,11 89,71 241,13 504,98 307,24 0,28 754,69 20,51 273,18 30,56 56,68 183,01 6,39 209,43 20,00 0,22 71,77 239,37 12,45 12,05 155,54 419,09 931,98   421,41 305,26 16695,208

ANOVA Paso 4: Calculamos la suma de cuadrados de las desviaciones entre la media de cada grupo y la media general. Esta es la suma de cuadrados explicada por el factor considerado, a la que denominaremos Suma de cuadrados del factor (SCF) o variabilidad explicada. Siendo: En la literatura científica también se denomina a la SCF como SC Entre los grupos (SS Between) o SC del Modelo (SS Model)

ANOVA CASADO SEPARADO VIUDO SOLTERO MEDIA GLOBAL MEDIA 35,21 46,27   CASADO SEPARADO VIUDO SOLTERO MEDIA GLOBAL MEDIA 35,21 46,27 58,18 45,08 45,53 n 14 15 11 13 (x-X)2 106,38 0,55 160,11 0,20 n(x-X)2 1489,305 8,178 1761,226 2,649 3261,358

ANOVA Paso 5: Calculamos la suma de cuadrados de las desviaciones entre cada dato y la media de su grupo. Esta es la suma de cuadrados no explicada, a la que denominaremos Suma de cuadrados residual (SCR) o variabilidad residual. Siendo: En la literatura científica también se denomina a la SCR como SC Dentro de los grupos (SS Within)

ANOVA 13433,850 CASADO SEPARADO VIUDO SOLTERO 635,76 541,34 392,76 532,54 262,90 247,54 139,67 621,16 0,62 1912,60 103,67 8,54 391,47 264,60 96,40 291,62 95,76 714,67 14,58 0,01 33,47 851,58 227,31 27,19 39,27 407,31 98,47 333,67 10,33 10,67 3,31 24,24 116,33 59,80 7,94 9,47 7,76 7,47 0,03 437,78 408,62 743,47   403,08 222,70 280,00 13433,850

Cada suma de cuadrados tiene sus propios grados de libertad. ANOVA Paso 6: Calculamos las medias cuadráticas, para lo cual necesitamos conocer los grados de libertad correspondiente a cada suma de cuadrados de las desviaciones Cada suma de cuadrados tiene sus propios grados de libertad. La SCT es el número total de casos menos uno, es decir n-1; La SCF es el número de grupos menos uno, es decir, k-1 y La SCR es el número total de datos menos k, es decir, n-k. En el análisis de la varianza, se define una media cuadrática como el cociente entre la suma de cuadrados y sus correspondientes grados de libertad:

Grados de libertad Factor, Entre los grupos (between) (k-1): ANOVA Grados de libertad Factor, Entre los grupos (between) (k-1): (4 - 1) = 3 Residual, Dentro de los grupos (within) (n-k): 53-4 = 49 Total = (n – 1): 53 - 1 = 52

ANOVA Medias Cuadráticas

ANOVA Paso 7: Calculamos el estadístico F de Snedecor, que nos informará si tenemos “pruebas suficientes” para rechazar o aceptar la hipótesis nula. En nuestro caso

ANOVA Paso 8: Con el fin de informar los resultados, se procede a generar el cuadro resumen del ANOVA. FUENTE DE VARIACIÓN SUMA DE CUADRADOS (SC) GRADOS DE LIBERTAD (gl) MEDIA DE CUADRADOS (MC) F calculado FACTOR SC ENTRE k - 1 SC Entre / k-1 MC Entre/MC Dentro RESIDUAL SC DENTRO n - k SC Dentro/ n-k   TOTAL SC TOTAL n - 1 En nuestro caso FUENTE DE VARIACIÓN SUMA DE CUADRADOS (SC) GRADOS DE LIBERTAD (gl) MEDIA DE CUADRADOS (MC) F calculado FACTOR 3261,358 3 1087,119 3,965 RESIDUAL 13433,850 49 274,160   TOTAL 16695,208 52

ANOVA Paso 9) Se procede a establecer la probabilidad de error tipo I o alfa asociada a nuestro valor F. Procedimiento: Encuentre el valor crítico en una distribución F, con k-1 grados de libertad en el numerador (en las columnas) y n-k grados de libertad en el denominador (en las filas), que deje una probabilidad de  en la cola superior de la distribución. Rechace la hipótesis nula si el estadístico F calculado en el Paso 7 es mayor o igual que el valor crítico F(k-1, n-K) que encontramos en la tabla de F.

ANOVA REGLAS DE DECISIÓN Las reglas de decisión en este procedimiento son las siguientes:

ANOVA Si desarrollamos el contraste en nuestro ejemplo, tenemos los siguientes valores: En la tabla correspondiente, ubicamos los valores (k-1) en las columnas; y (n-k) en las filas y el punto de intersección nos informa el valor Fa con el cual compararemos el Fobs

ANOVA Los valores críticos de Fa son: Al realizar la comparación de Fobs con Fa, se observa que Paso 10) Se concluye sobre la Hipótesis nula. Por lo tanto, podemos rechazar la hipótesis nula, al 2,5% y aceptamos que existe evidencia empírica suficiente para afirmar que existen diferencias significativas entre las medias de, al menos, dos de los grupos de padres.

ANOVA A partir de los resultados expuestos sabemos que las cuatro categorías de la variable independiente presentan resultados diferentes. Pero no sabemos exactamente entre que categoría se presentan dichas diferencias, pues ANOVA no nos informa al respecto. Nos dice que hay diferencias significativas, pero no entre que pares

Podemos tener varias preguntas: ANOVA Podemos tener varias preguntas: ¿Los hijos de padres casados presentan menos problemas específicos que los de padres separados? ¿Los hijos de padres viudos presentan más problemas específicos que los de padres separados? ¿Existen diferencias entre los hijos de padres solteros y los de padres separados El ANOVA de un factor no responde estas preguntas

Estas pruebas son conocidas como comparaciones post-hoc ANOVA Podemos probar la significación estadística de las diferencias entre pares individuales de condiciones Estas pruebas son conocidas como comparaciones post-hoc Se calcula un valor crítico de diferencias a través del procedimiento que explicaremos a continuación.

COMPARACION POST-HOC ANOVA Las Comparaciones Post-Hoc ( a posteriori) se hacen solamente si el resultado de ANOVA es p<0,05, es decir, se han encontrado diferencias significativas. En este curso aplicaremos en estos casos la Prueba T de Student para muestras independientes, explicada anteriormente.

Análisis de la Varianza de Kruskal-Wallis El contraste de Kruskall-Wallis es la alternativa no paramétrica del método ANOVA Unifactorial, es decir, sirve para contrastar la hipótesis de que k muestras cuantitativas han sido obtenidas de la misma población. La única exigencia se refiere a la aleatoriedad en la extracción de las muestras, sin hacer referencia a las otras condiciones de homocedasticidad y normalidad necesarias para la aplicación del test paramétrico ANOVA. De este modo, este contraste es el que debemos aplicar necesariamente cuando no se cumplen algunas de las condiciones que se necesitan para aplicar dicho método. Al igual que las demás técnicas no paramétricas, ésta se apoya en el uso de los rangos asignados a las observaciones.

PRUEBA DE KRUSKAL-WALLIS Ejemplo Un psicopedagogo investigador pretende establecer si existen diferencias en las expectativas de logro que manifiestan los padres acerca de los avances de sus hijos en la atención especializada que reciben, según la dependencia del colegio de procedencia de los niños. Para ese fin, aplica una escala de expectativas, la cual indica que a mayor puntuación, mayor expectativa sobre los avances de su hijo(a).

Paso 1: Se obtienen los siguientes datos PRUEBA DE KRUSKAL-WALLIS Paso 1: Se obtienen los siguientes datos MUNICIPAL PARTICULAR   PAGADO SUBVENCIONADO 14 12 11 15 9 16 8 13 17

Paso 3) Luego se suman los rangos de cada grupo. PRUEBA DE KRUSKAL-WALLIS Paso 2) Se ordenan todos los datos, de menor a mayor, de las k muestras y en un solo conjunto, cuidando de identificar a cada uno con su muestra respectiva. Paso 3) Luego se suman los rangos de cada grupo. Municipal R1 Particular R2 R3   pagado subvencionado 14 8,5 12 4,5 8 1 9 2 15 11,5 11 3 16 13,5 13 6 17 42,0 61,5 16,5

PRUEBA DE KRUSKAL-WALLIS Paso 4) A continuación se calcula el valor H de Kruskal-Wallis.

PRUEBA DE KRUSKAL-WALLIS En nuestro ejemplo de las expectativas de los padres según la dependencia del colegio de sus hijos, tenemos los siguientes valores: Si sustituimos en Tenemos Por lo tanto

PRUEBA DE KRUSKAL-WALLIS Paso 5) Se procede a establecer la probabilidad de error tipo I o alfa asociada a nuestro valor H. Existen dos procedimientos, asociados a la cantidad de grupos y sus tamaños Primer procedimiento: Si el número de muestras es k=3 y el número de observaciones en cada una de ellas no pasa de 5, se rechaza H0 si el valor de Hobs supera el valor teórico de Ha que encontramos en la tabla de Kruskal-Wallis. (La tabla aportada en el curso opera hasta k=5 para n=3). Segundo procedimiento: En cualquier otro caso, se compara el valor de Hobs con el de la tabla de Chi cuadrado con k-1 grados de libertad. Se rechaza H0 si el valor del estadístico supera el valor teórico .

PRUEBA DE KRUSKAL-WALLIS REGLAS DE DECISIÓN Las reglas de decisión en este procedimiento son las siguientes:

PRUEBA DE KRUSKAL-WALLIS Si desarrollamos el contraste en nuestro ejemplo, siguiendo el primer procedimiento, tenemos los siguientes valores: En la tabla correspondiente, ubicamos los valores de los tamaños de los grupos 6,5,4 y comparamos nuestro valor Hobs con el Ha correspondiente

PRUEBA DE KRUSKAL-WALLIS Los valores críticos de Ha son: Al realizar la comparación de Hobs con Ha, se observa que Paso 6) Se concluye sobre la Hipótesis nula. Por lo tanto, podemos rechazar la hipótesis nula, al 1%, y debemos aceptar que existe evidencia empírica suficiente para afirmar que existen diferencias significativas entre las medias de rangos entre, al menos, dos de los grupos de padres.

PRUEBA DE KRUSKAL-WALLIS Si desarrollamos los pasos 5 y 6, siguiendo el segundo procedimiento de contraste, tenemos los siguientes valores: En la tabla correspondiente, ubicamos en la columna DF nuestro k-1 y comparamos nuestro valor Hobs con el X 2a correspondiente

PRUEBA DE KRUSKAL-WALLIS Los valores críticos de Ha son: Al realizar la comparación de Hobs con Ha, se observa que Paso 6) Se concluye sobre la Hipótesis nula. Por lo tanto, podemos rechazar la hipótesis nula, al 2%, y debemos aceptar que existe evidencia empírica suficiente para afirmar que existen diferencias significativas entre las medias de rangos entre, al menos, dos de los grupos de padres.

PRUEBA DE KRUSKAL-WALLIS A partir de los resultados expuestos sabemos que las tres categorías de la variable independiente presentan resultados diferentes. Pero no sabemos exactamente entre que categoría se presentan dichas diferencias, pues el Test de Kruskal-Wallis no nos informa al respecto. Nos dice que hay diferencias significativas, pero no entre que pares

Podemos tener varias preguntas: PRUEBA DE KRUSKAL-WALLIS Podemos tener varias preguntas: ¿Los padres M tienen más expectativas que los PS? ¿Los padres PS tienen menos expectativas que los PP? ¿Existen diferencias entre los padres PP y M? La prueba de Kruskal-Wallis no responde estas preguntas

COMPARACIONES POST-HOC KRUSKAL-WALLIS Podemos probar la significación estadística de las diferencias entre pares individuales de condiciones Estas pruebas son conocidas como comparaciones post-hoc Se calcula un valor crítico de diferencias a través de uno de los procedimientos. En este curso usaremos la U de Mann Whitney, explicada anteriormente.