Recordatorio Estadística Paramétrica Se basa en el conocimiento que los datos presentan una distribución estadística conocida y cada distribución tiene.

Slides:



Advertisements
Presentaciones similares
Recordatorio Estadística Paramétrica
Advertisements

Bioestadística Aplicada I
Tema 17: Contraste paramétrico de hipótesis I: Pruebas de contraste para un grupo. Pruebas de contraste para dos grupos: independientes o relacionados.
DISTRIBUCIÓN “t” DE STUDENT
RESUMEN DE LA DISTRIBUCION MUESTRAL PARA LA MEDIA MUESTRAL X INTERVALOS DE CONFIANZA PARA LA MEDIA POBLACIONAL  TIPO DE PROBLEMA ESPERANZA Y VARIANZA.
Tarea # 4 PRUEBAS DE HIPÓTESIS ESTADÍSTICAS. PRUEBA DE HIPÓTESIS Hipótesis es una aseveración de una población elaborado con el propósito de poner a prueba,
PRINCIPIOS DE ESTADÍSTICAS INFERENCIALES PRUEBA DE HIPÓTESIS: MUESTRAS PEQUEÑAS.
El estadístico Chi- cuadrado ING. RAÚL ALVAREZ GUALE, MPC.
PRUEBAS NO PARAMETRICAS SEGÚN SHAPPIRO- WILK. ■ En estadística, de Shapiro–Wilk se usa para contrastar la normalidad de un conjunto de datos. Se plantea.
Bioestadística Distribuciones muestrales para variables cuantitativas.
PRUEBA DE RANGO CON SIGNO DE WILCOXON Una empresa desea remplazar el sabor tradicional de su producto, por uno nuevo, para lo cual necesita determinar.
PRUEBA DE HIPÓTESIS. 1. Una prueba de hipótesis consiste en contrastar dos hipótesis estadísticas. Tal contraste involucra la toma de decisión acerca.
1 Pronósticos, Series de Tiempo y Regresión Capítulo 3: Regresión Lineal Simple.
Tema: Estadísticos no paramétricos CHI-Cuadrada Curso: Seminario de Estadística ESCUELA SUPERIOR POLITECNICA DE CHIMBORAZO FACULTAD DE INFORMATICA Y ELECTRONICA.
¡Guía tonta de estadística! Dr. Hamda Qotba, B.Med.Sc, M.D, ABCM.
ESTADÍSTICA Mercedes de la Oliva ESTADÍSTICA INFERENCIAL Teorema Central del límite Distribución de media y proporción muestral.
XVII CONIC 2009 Congreso Nacional de Ingeniería Civil Capítulo de Ingeniería Civil Consejo Departamental De Lambayeque Colegio de Ingenieros del Perú.
Capitulo 3 Análisis descriptivo inferencial: comparaciones de muestras
ESCUELA PROFESIONAL CIENCIA POLITICA Y GOBIERNO
Muestreo PRUEBAS Y VALIDACION DE HIPOTESIS Carlos Willian Rincón Pérez
PSICOESTADÍSTICAS INFERENCIALES
DISTRIBUCION F DE FISHER.
PRUEBA DE HIPÓTESIS: MUESTRAS PEQUEÑAS
DISEÑOS EXPERIMENTALES
PRUEBAS DE BONDAD DE AJUSTE estas pruebas permiten verificar que la población de la cual proviene una muestra tiene una distribución especificada o supuesta.
puede o no ser verdadero, relativo a una o más poblaciones.
7.1 Procedimientos paramétricos para datos cuantitativos
Estadística II Prueba de hipótesis considerando
Análisis de varianza Paramétricos vs. No Paramétricos
ESTADÍSTICA II Ing. Danmelys Perozo MSc.
INFERENCIA ESTADÍSTICA PARA DOS POBLACIONES
ANALISIS UNILATERAL DE LA VARIANZA POR JERARQUIAS DE KRUSKAL- WALLIS
Clase 8: Contraste de Hipótesis
CHI CUADRADO  2 OBJETIVOS –Describir situaciones donde es adecuado la utilización de la prueba de Chi Cuadrado (  2 ) –Formular Hipótesis para diferentes.
¿Cuándo usar esta distribución?
Comparación de medias-no paramétrico
¡Guía básica de estadística! Dr. Hamda Qotba, B.Med.Sc, M.D, ABCM.
DISTRIBUCIÓN GAMMA. La distribución gamma se deriva de la función gamma. La distribución gamma tiene un caso especial que es la distribución exponencial.
DISEÑOS EXPERIMETALES
Verificación de modelos
ESTADÍSTICA INFERENCIAL. La estadística Inferencial, es el proceso por el cual se deducen (infieren) propiedades o características de una población a.
“Formulación de Hipótesis Estadística”
COMPARACION DE MEDIAS Para comparar media utilizando la prueba T hay Ttres opciones diferentes utilizando contrastes de hipotesis sobre : PARA UNA MUESTRA.
PRUEBAS PARAMETRICAS Y NO PARAMETRICAS. Cómo aplicar las pruebas paramétricas bivariadas t de Student y ANOVA en SPSS. Caso práctico., María José Rubio.
ESTIMACIÓN (Inferencia Estadística) Intervalos de Confianza
ANALISIS DE VARIANZA
DISEÑO Y ANALISIS DE EXPERIMENTOS
INTRODUCCION A LA ESTADÍSTICA INFERENCIAL
Dr. Carlomagno Araya Alpízar
INTRODUCCION A LOS CONTRASTES BASADOS EN RANGOS
¡Guía tonta de estadística! Dr. Hamda Qotba, B.Med.Sc, M.D, ABCM.
Fco. Javier Burguillo Universidad de Salamanca
Regresión Lineal Simple
PRUEBAS DE HIPÓTESIS NO PARAMÉTRICAS
DISEÑO Y ANALISIS DE EXPERIMENTOS
INTRODUCCION A LOS CONTRASTES BASADOS EN RANGOS
Distribución chi-cuadrado Distribución F de Fisher-Snedecor
TEMA IV. ESQUEMA GENERAL Definición general Clasificación Formatos del diseño y prueba de la hipótesis DISEÑO EXPERIMENTAL DE DOS GRUPOS.
INFERENCIA ESTADISTICA
ESTADISTICOS Y DISTRIBUCIONES MUESTRALES
ANÁLISIS DE VARIANZA(ANOVA) AULA:33 INTEGRANTES: JUAN CHAUCA ALEXIS JARAMILLO JEFFERSON LLANGARI KATHY ULLOA UNIVERSIDAD CENTRAL DEL ECUADOR FACULTAD DE.
METODOS ESTADISTICOS: PARAMÉTRICOS VERSUS NO PARAMETRICOS Cuando se analizan datos medidos por una variable cuantitativa continua, las pruebas estadísticas.
Tema 5: Distribuciones continuas. Recordamos que una variable aleatoria continua es una variable cuyo valor no puede predecirse con exactitud (aunque.
HERNANDEZ RUIZ ROCIO KRUSKAL WALLIS. PRUEBAS K PARA MUESTRAS INDEPENDIENTES Este contraste permite decidir si puede aceptarse la hipótesis de que k muestras.
PRUEBAS ESTADISTICAS NO PARAMETRICAS. Pruebas tradicionales Necesitan la especificación de una distribución Son métodos robustos para las distribuciones.
PRUEBA DE HIPOTESIS ESTADISTICA
Prueba de Hipótesis Concepto Asignar Probabilidades de ocurrencia a un evento basado en la suposición (hipótesis) de un evento o distribución.
La Distribución de la Varianza Muestral  La comprensión del concepto de la distribución de la Varianza Muestral es fundamental para el correcto entendimiento.
PRUEBA DE HIPOTESIS ESTADISTICA
Transcripción de la presentación:

Recordatorio Estadística Paramétrica Se basa en el conocimiento que los datos presentan una distribución estadística conocida y cada distribución tiene parámetros que deben ser estimados a través de las muestras colectadas. Estadística No Paramétrica Se basa en que el conjunto de datos puede no ajustarse a alguna distribución conocida. Se usa para muestras pequeñas (entre 10 y 30 datos, como sugerencia) y en caso donde se encuentren valores extremos o outliers. Los conjuntos de datos suelen ordenarse (ranquear).

Inferencia en una y dos poblaciones Inferencia basada en una muestra Grados de libertad (gl) Al estimarse la media de una muestra, gl=n-1. Se calcula el estadístico t que bajo la hipótesis nula responde a una distribución T:.valor p <o.o5 (nivel de significancia) indica que el estadístico T calculado es mayor que el T si tuviese distribución T (Ho). Se rechaza la hipótesis (Ho) y el promedio de densidad de la especie A es distinto de Verificar si es una prueba de una (unilateral) o dos colas (bilateral). Se necesita saber si el promedio o mediana de una densidad de la especie A es= Estadística paramétrica a) Prueba T para un parámetro

No paramétrica: - Prueba de rachas: Probar la Hipótesis de un ordenamiento aleatorio de datos contra una alternativa de tendencia en los datos(no aleatorio), mediante el uso de rachas. Una racha es un cjto de elementos de mismo signo. Se usan variables dummy o categóricas. Ejemplo: , donde hay tres rachas de unos (de largo 1, 2, y 2) y dos rachas de ceros (de largo 3 y 2). Se estima R Para tamaños de muestra grande R ~ N Prueba de normalidad (Shapiro-Wilks modificado) Probar si la variable en estudio tiene distribución normal. Las hipótesis de la prueba son: H0: las observaciones tienen distribución normal; versus H1: las observaciones no tienen distribución normal

Prueba de bondad de Ajuste (Kolmogorov) Permite probar si la muestra disponible se ajusta a un modelo distribucional teórico. Se supone que se dispone de una muestra aleatoria y que se desea probar si la distribución empírica se ajusta a alguna de las siguientes distribuciones: Normal (m,v), T de Student (v), F de Snedecor (u,v), Chi cuadrado (v), Gamma (r,lambda), Beta (a,b), Weibull (a,b), Exponencial (lambda) o Gumbel (a,b), La distribución teórica debe ser completamente especificada (parámetros conocidos). Las hipótesis son: H0: G(x) = F teórica (x) vs. H1: G(x)  F teórica (x), para al menos una x donde G(x) es la función de distribución empírica (o de los valores observados) y Fteorica(x) es la función de distribución teórica especificada.

Inferencia basada en dos muestras Estadística paramétrica Prueba T para muestras independientes probar la hipótesis la diferencia de dos medias muestrales. Se asume que se dispone de dos muestras independientes, cada una desde una población o una distribución. Debe solicitarse homogeneidad de varianzas, H0: H1: Para esta prueba se usa el estadístico F= que bajo H0 se distribuye como una variable F con (n 1 –1) y (n 2 –1) grados de libertad. Donde S2 es varianza muestreal. Cuando la hipótesis de homogeneidad de varianzas es rechazada, la prueba se basa en un T para varianzas heterogéneas.

La prueba T se utiliza para comparar dos medias (esperanzas) en dos poblaciones (distribuciones), es decir: H0: μ 1 =μ 2 ; versus H1: μ 1  μ 2 Si se desea rechazar la hipótesis nula, entonces el T calculado debe presentar un valor alto. Según la fórmula debería haber una diferencia alta entre las medias junto tamaños de muestras grandes, bajo supuesto de igualdad de varianzas. El estadístico T se calcula:

Prueba de Wilcoxon (Mann-Whitney U) permite probar la hipótesis que dos muestras aleatorias independientes ({X1,...,Xn1} e {Y1,...,Yn2}), provienen de la misma población, usando el estadístico de Wilcoxon (Lehman, 1975). Esta prueba es equivalente a la prueba U de Mann Whitney para muestras independientes. Estadística No paramétrica, basada en rangos

Prueba para la diferencia de proporciones Permite contrastar la hipótesis de igualdad de proporciones de éxito en dos poblacionales: H0: p1=p2 versus H1: p1  p2 Los valores p reportados se obtienen de la distribución exacta del estadístico de Fisher Prueba de Irwin-Fish: Compara dos muestras aleatorias que provienen de dos poblaciones independientes. Es un procedimiento para variables dicotómicas Contrasta hipótesis de igualdad de proporciones de éxitos, p1 y p2, en ambas poblaciones: H0: p1=p2=p 0 versus H1: p1  p2 donde p 0 es un valor propuesto para el parámetro que se supone común a ambas distribuciones. Por ejemplo, la proporción de machos en dos poblaciones de la especie A en diferentes épocas es la misma y es 0.45 o 45% (p 0 =0.45).