La descarga está en progreso. Por favor, espere

La descarga está en progreso. Por favor, espere

Recordatorio Estadística Paramétrica

Presentaciones similares


Presentación del tema: "Recordatorio Estadística Paramétrica"— Transcripción de la presentación:

1 Recordatorio Estadística Paramétrica Se basa en el conocimiento que los datos presentan una distribución estadística conocida y cada distribución tiene parámetros que deben ser estimados a través de las muestras colectadas. Estadística No Paramétrica Se basa en que el conjunto de datos puede no ajustarse a alguna distribución conocida . Se usa para muestras pequeñas (entre 10 y 30 datos, como sugerencia) y en caso donde se encuentren valores extremos o outliers. Los conjuntos de datos suelen ordenarse (ranquear).

2 Inferencia en una y dos poblaciones
Inferencia basada en una muestra Se necesita saber si el promedio o mediana de una densidad de la especie A es= Estadística paramétrica a) Prueba T para un parámetro Grados de libertad  (gl) Al estimarse la media de una muestra, gl=n-1. Se calcula el estadístico t que bajo la hipótesis nula responde a una distribución T: .valor p <o.o5 (nivel de significancia) indica que el estadístico T calculado es mayor que el T si tuviese distribución T (Ho). Se rechaza la hipótesis (Ho) y el promedio de densidad de la especie A es distinto de Verificar si es una prueba de una (unilateral) o dos colas (bilateral).

3 No paramétrica: - Prueba de rachas: Probar la Hipótesis de un ordenamiento aleatorio de datos contra una alternativa de tendencia en los datos(no aleatorio), mediante el uso de rachas. Una racha es un cjto de elementos de mismo signo. Se usan variables dummy o categóricas. Ejemplo: , donde hay tres rachas de unos (de largo 1, 2, y 2) y dos rachas de ceros (de largo 3 y 2). Se estima R Para tamaños de muestra grande R ~ N Prueba de normalidad (Shapiro-Wilks modificado) Probar si la variable en estudio tiene distribución normal. Las hipótesis de la prueba son: H0: las observaciones tienen distribución normal; versus H1: las observaciones no tienen distribución normal

4 Prueba de bondad de Ajuste (Kolmogorov)
Permite probar si la muestra disponible se ajusta a un modelo distribucional teórico. Se supone que se dispone de una muestra aleatoria y que se desea probar si la distribución empírica se ajusta a alguna de las siguientes distribuciones: Normal (m,v), T de Student (v), F de Snedecor (u,v), Chi cuadrado (v), Gamma (r,lambda), Beta (a,b), Weibull (a,b), Exponencial (lambda) o Gumbel (a,b), La distribución teórica debe ser completamente especificada (parámetros conocidos). Las hipótesis son: H0: G(x) = Fteórica(x) vs. H1: G(x)  Fteórica(x), para al menos una x donde G(x) es la función de distribución empírica (o de los valores observados) y Fteorica(x) es la función de distribución teórica especificada.

5 Inferencia basada en dos muestras
Estadística paramétrica Prueba T para muestras independientes probar la hipótesis la diferencia de dos medias muestrales. Se asume que se dispone de dos muestras independientes, cada una desde una población o una distribución. Debe solicitarse homogeneidad de varianzas, H0: H1: Para esta prueba se usa el estadístico F= que bajo H0 se distribuye como una variable F con (n1–1) y (n2–1) grados de libertad. Donde S2 es varianza muestreal. Cuando la hipótesis de homogeneidad de varianzas es rechazada, la prueba se basa en un T para varianzas heterogéneas.

6 La prueba T se utiliza para comparar dos
medias (esperanzas) en dos poblaciones (distribuciones), es decir: H0: μ1=μ2; versus H1: μ1μ2 El estadístico T se calcula: Si se desea rechazar la hipótesis nula, entonces el T calculado debe presentar un valor alto. Según la fórmula debería haber una diferencia alta entre las medias junto tamaños de muestras grandes, bajo supuesto de igualdad de varianzas.

7 Estadística No paramétrica, basada en rangos
Prueba de Wilcoxon (Mann-Whitney U) permite probar la hipótesis que dos muestras aleatorias independientes ({X1,...,Xn1} e {Y1,...,Yn2}), provienen de la misma población, usando el estadístico de Wilcoxon (Lehman, 1975). Esta prueba es equivalente a la prueba U de Mann Whitney para muestras independientes.

8 Prueba de Irwin-Fish: Compara dos muestras aleatorias que provienen de dos poblaciones independientes. Es un procedimiento para variables dicotómicas Contrasta hipótesis de igualdad de proporciones de éxitos, p1 y p2, en ambas poblaciones: H0: p1=p2=p0 versus H1: p1p2 donde p0 es un valor propuesto para el parámetro que se supone común a ambas distribuciones. Por ejemplo, la proporción de machos en dos poblaciones de la especie A en diferentes épocas es la misma y es 0.45 o 45% (p0=0.45). Prueba para la diferencia de proporciones Permite contrastar la hipótesis de igualdad de proporciones de éxito en dos poblacionales: H0: p1=p2 versus H1: p1 p2 Los valores p reportados se obtienen de la distribución exacta del estadístico de Fisher


Descargar ppt "Recordatorio Estadística Paramétrica"

Presentaciones similares


Anuncios Google