Selección del modelo adecuado

Slides:



Advertisements
Presentaciones similares
DISEÑO DE EXPERIMENTOS EXPERIMENTOS DE COMPARACIÓN SIMPLE
Advertisements

DSITRIBUCION T DE STUDENT.
MSP César Eduardo Luna Gurrola
Tema 16: Contraste paramétrico de hipótesis I: Pruebas de contraste para un grupo. Pruebas de contraste para dos grupos: independientes o relacionados.
1.1 Contraste de Bondad de Ajuste para Datos Categóricos
REGRESION LINEAL SIMPLE
PATRONES DE DISTRIBUCIÓN ESPACIAL
Modelos de Variable Dependiente Binaria -Logit y Probit-
Pruebas de hipótesis.
Contraste de Hipótesis
Capítulo 10 Test de Hipótesis.
Estimación de parámetros poblacionales
Bivariadas y Multivariadas
} LISSET BÁRCENAS MONTERROZA
Introducción al tema El único método científico para validar conclusiones sobre un grupo de individuos a partir de la información que nos proporciona un.
KRIGING.
PRUEBAS DE HIPOTESIS HIPOTESIS
Estimación por intervalos de confianza.
Estimación por Intervalos de confianza
Uso de pruebas estadísticas paramétricas y no paramétricas
CURSO DE ESTADÍSTICA BÁSICA
Diseño de experimentos
Distribución muestral de la Media
Estadística Descriptiva: 4. Correlación y Regresión Lineal
Estadística Descriptiva: 4. Correlación y Regresión Lineal Ricardo Ñanculef Alegría Universidad Técnica Federico Santa María.
Regresión lineal Es un modelo matemático para predecir el efecto de una variable sobre otra, ambas cuantitativas. Una variable es la dependiente y otra.
Tema 2: Métodos de ajuste
Prueba de hipótesis Equivalencia entre la prueba de hipótesis y los intervalos de confianza Valor de probabilidad Valor de probabilidad unilateral Prueba.
Tests de hipótesis Los tres pasos básicos para testear hipótesis son
3er Encuentro de Usuarios de Stata en México
Sesión 2: Métodos Probabilísticos Básicos
Inferencia Estadística
PROBLEMAS ECONOMETRICOS
Curso Práctico de Bioestadística Con Herramientas De Excel Fabrizio Marcillo Morla MBA (593-9)
MODELOS DE ELECCIÓN BINARIA: ANÁLISIS LOGIT
Diseño Estadístico y Herramientas para la Calidad
Unidad V: Estimación de
Pronósticos, Series de Tiempo y Regresión
Fundamentos del contraste de hipótesis
Tema 7: Regresión Simple y Múltiple. EJEMPLO: Aproxima bien el número de préstamos que efectúa una biblioteca a lo largo de su primer año de vida. Nos.
Modelo de regresión con dos variables: Estimación
Unidad V: Estimación de
Valor que toma la variable aleatoria
Distribución Normal o gaussiana
Estimación Sea una característica, un parámetro poblacional cuyo valor se desea conocer a partir de una muestra. Sea un estadístico ( función.
Introducción La inferencia estadística es el procedimiento mediante el cual se llega a inferencias acerca de una población con base en los resultados obtenidos.
Capítulo 7 Estimación de Parámetros Estadística Computacional
Análisis Cuantitativo de Datos (Básico)
Inferencia Estadística
Unidad V: Estimación de
Repaso de clase anterior
Capítulo 1. Conceptos básicos de la Estadística
Cálculo de extremos de funciones de R n –> R : Supongamos que queremos calcular un extremo de una función f de R n –> R: donde.
La Distribución Normal.
Pruebas de hipótesis.
Probabilidad y Estadística X = x Unidad de muestreo Mediremos un atributo Variable aleatoria Valor que toma la variable aleatoria.
Estimación y contraste de hipótesis
CASO II: Tamaño muestral grande (n > 30) cuando es desconocido Se sabe que para n>30 la distribución t de Student se aproxima a la distribución N(0;1)*.
ESTIMACIÓN DE PARÁMETROS
Distribuciones de Probabilidad
Aspectos generales de la investigación educativa en el SNIT
INFERENCIA ESTADÍSTICA
Clase 17 Introducción a la Estadística Universidad de la República Centro Universitario Regional del Este Pablo Inchausti Licenciatura en Gestión Ambiental.
REGRESIÓN LINEAL SIMPLE
UNIDAD I.- Analisis 3.4 Prueba de Hipotesis.
ESTADISTICA DESCRIPTIVA BIVARIADA MEDIDAS DE RELACIÓN ENTRE VARIABLES CUANTITATIVAS.
Estadística Inferencial
Estimación estadística
Yulieth ariza Villarreal Estadística II. Historia La distribución de Student fue descrita en 1908 por William Sealy Gosset. Gosset trabajaba en una fábrica.
Viviana Acosta Estadística II. Que es Es una distribución de probabilidad que surge del problema de estimar la media de una población normalmente distribuida.
Transcripción de la presentación:

Selección del modelo adecuado Dado un set de datos, existen toda una serie de modelos/hipótesis que pueden describir el fenómeno de interés y existe interés en decidir cuál es el modelo más adecuado, dado el conocimiento existente (en este curso consideraremos sólo a los datos como el conocimiento existente). Normalmente ningún modelo podrá ganar la contienda “de una”, sino que cada experimento adicional cambiarán nuestro grado de creencia en las diferentes hipótesis Suponga que asumimos que la distribución de tallas de una población sigue una distribución normal con media desconocida y varianza perfectamente conocida

¿Cuál es la hipótesis ganadora? Si nosotros tomamos una muestra de tamaño=2 y medimos a dos individuos, obteniendo: 150 y 162 cm ¿Cuáles son las hipótesis que están compitiendo en este caso? Las hipótesis que compiten son los posibles valores de la media paramétrica. ¿Cuál es la hipótesis ganadora?

¿Que ocurrió? ¿Cuál fue el rol de los datos en este ejemplo? En el caso anterior la hipótesis que más soporte tiene, dados los datos obtenidos es el valor de m que minimiza el logaritmo negativo de la verosimilitud Suponga que luego tomamos 100 datos más y realizamos un nuevo perfil del logaritmo negativo de la verosimilitud ¿Que ocurrió? ¿Cuál fue el rol de los datos en este ejemplo?

Puntos de inflexión en la curva de crecimiento?? Suponga que las hipótesis competidoras no son determinados valores de un parámetro sino que las hipótesis competidoras son diferentes modelos que implican diferentes procesos biológicos. Depensación o no?? Puntos de inflexión en la curva de crecimiento?? Influencia del ambiente sobre la supervivencia??? La verosimilitud nos indica cuán consistente es una determinada hipótesis dado un grupo de observaciones Si los modelos que compiten no tienen el mismo número de parámetros estamos enfrentados a una competencia donde los contrincantes no están en igualdad de condiciones UN MODELO CON MÁS PARÁMETROS TIENE UNA VENTAJA INTRÍNSECA EN SER CAPAZ DE AJUSTAR A LOS DATOS (MAYOR VEROSIMILITUD)

MODELOS ANIDADOS Dos o más modelos se encuentran anidados cuando uno es un caso particular de otro Supongamos que para un cierto juego de datos V(q) es la función de verosimilitud de un modelo cuyos parámetros están representados por el conjunto q = donde p es el número de parámetros en el modelo. Consideremos el conjunto q0 como un caso particular del vector de parámetros q, en el que uno a más parámetros tienen un valor fijo.

Ejemplos de modelos anidados a) Llevar un parámetro a cero y el modelo colapsa en otro más sencillo Laboratorio del Ñu del Serenguetti Laboratorio Stock-Reclutamiento: Tribolium Si b es cero pasamos de un modelo denso dependiente a uno denso independiente Si hacemos cero los coeficientes de canivalismo pasamos a un modelo lineal

Ejemplos de modelos anidados b) Fijar un parámetro a un valor distinto de cero (lo que no necesariamente implica que cambiamos el modelo estructural) Modelo LBV con parámetro fijo No cambiamos el modelo, simplemente asumimos que uno de los valores es fijo y conocido Modelo Generalizado Si cambiamos fijamos el valor de m=1 el modelo colapsa al modelo de LBV, m=2 logística

Ejemplos de modelos anidados c) Fijar parámetros (o restringirlos a que sean iguales) cuando tenemos múltiples fuentes de información Suponga que queremos estimar los parámetros r y k de una población una población y tenemos dos sets de datos independientes: ¿Qué hacemos?¿Estimamos r y k por separado?¿con que estimación nos quedamos? Si hay múltiples fuentes de información podemos construir una función total de verosimilitud como:

El caso del laboratorio: crecimiento en dos poblaciones de gaviota Modelo de Richards En este caso tenemos un modelo con 8 parámetros, donde cada uno de los parámetros es diferente entre poblaciones Si suponemos que los k son iguales entre las poblaciones, entonces este sería un caso particular del modelo anterior con 7 parámetros donde K=k1=k2

V(qo) =verosimilitud del modelo restringido Modelos anidados: V(qo) =verosimilitud del modelo restringido V(q) = verosimiltud del modelo completo Si buscamos los parámetros que maximizan las respectivas funciones de verosimilitud se verifica que: ¡¡¡¡Recuerden que son dos competidores en desigualdad de condiciones!!!

Test de cociente de verosimilitud Ok, un modelo con más parámetros libres tiene intrínsecamente una mayor verosimiltud maxima, entonces… ¿Es el mejor modelo? Test de cociente de verosimilitud Cociente de verosimilitud ¿qué nos dice?

Test de cociente de verosimilitud g=la diferencia entre el número de parámetros libres del modelo general y el restringido. Ahora tenemos una herramienta estadística que nos permite evaluar si la verosimilitud de estos dos modelos es estadísticamente distinta y si vale la pena agregar un nuevo parámetro

Un ejemplo: modelo de LBV Ho: to = 0 Ha: ta ? 0. Si tenemos una muestra de n Li independientes la V() de la hipótesis nula:

Y la verosimiltud de la hipótesis alternativa es:

Entonces el cociente de verosimilud es: Como las hipótesis se refieren al mismo set de datos y el mismo n En el caso de una dist. log normal

¿Cuáles son los valores del parámetro más probables? Perfiles de verosimilitud: En el caso de un modelo con un único parámetro libre se puede fácilmente construir un perfil de verosimiltud o –log verosimilitud Si tenemos más de un parámetro, para cada valor del parámetro que querramos evaluar necesitamos maximizar la verosimilitud sobre el resto de los parámetros ¿Cuáles son los valores del parámetro más probables? Necesitamos un enfoque probabilístico que nos permita construir un intervalo de confianza

Perfil de Probabilidades Calcular el cociente de verosimilitud para cada valor del parámetro Calcular la probabilidad asociada a ese coeficiente de verosimilitud Determinar el nivel del error tipo 1 que estamos dispuestos a aceptar (normalmente 0.05)