A  Percentil al 68.3%,  :  P(x) dx = 0.683  

Slides:



Advertisements
Presentaciones similares
PRUEBAS DE HIPOTESIS. I.S.C. Rosa E. Valdez V.. Dentro del estudio de la inferencia estadística, se describe como se puede tomar una muestra aleatoria.
Advertisements

Tema 14. Estimación de parámetros: Estimación puntual y por intervalos
Modelos de Variable Dependiente Binaria -Logit y Probit-
Muestras aleatorias. Distribuciones en el muestreo.
Inferencia estadística
Introducción al tema El único método científico para validar conclusiones sobre un grupo de individuos a partir de la información que nos proporciona un.
KRIGING.
Capítulo 5 Método de MonteCarlo
INFERENCIA ESTADISTICA
Estadísticos de Prueba en el Modelo de Regresión Múltiple
Estimación por Intervalos de confianza
Universidad de América
Nombre: Israel Espinosa Jiménez Matricula: Carrera: TIC Cuatrimestre: 4 Página 1 de 5.
Distribución muestral de la Media
9 Regresión Lineal Simple
MEDIDAS DE CORRELACIÓN
Monte Carlo: experimentos simulados Tema 2 Itziar Aretxaga.
FUNCIONES DE DENSIDAD DE PROBABILIDAD
Universidad Mexicana en Línea Carrera: Administración Pública Asignatura: Estadística Tutor: Leonardo Olmedo Alumno: Alfredo Camacho Cordero Matrícula:
REDES BAYESIANAS Y DECISIÓN ESTADÍSTICA
Análisis de supervivencia Tema 5 Itziar Aretxaga.
Clases 4 Pruebas de Hipótesis
Sesión 2: Teoría de Probabilidad “Considero que la probabilidad representa el estado de la mente con respecto a una afirmación, evento u otra cosa para.
Unidad V: Estimación de
Elementos Básicos de Probabilidad y Estadística Javier Aparicio División de Estudios Políticos, CIDE Julio 2009
Probabilidad y Estadística Inferencia Estadística Se sabe que si cada variable sigue una densidad normal con  y   entonces sigue una ley de densidad.
Inferencia estadística: teoría de distribuciones
5.- Calcular los residuos del ajuste del modelo a los datos.
DISTRIBUCIONES DE MUESTREO
Unidad V: Estimación de
IPC 2008 Estimaciones por Bootstrap
1 M. en C. Gal Vargas Neri. 2 Planeación del curso TEMACAP.TITULODÍASSEMFEC FIN TEMA 00MOTIVACION Y PLANEACION1111/01 TEMA I1-2ESTADISTICA Y MEDICION2115/01.
Valor que toma la variable aleatoria
ANALISIS DE FRECUENCIA EN HIDROLOGIA (2)
Tema 8: Estimación 1. Introducción.
UNIVERSIDAD DE GUAYAQUIL.
Técnicas Supervisadas Aproximación no paramétrica Reconocimiento de Patrones 2003 Notas basadas en el curso Reconocimiento de Formas de F.Cortijo, Univ.
Introducción La inferencia estadística es el procedimiento mediante el cual se llega a inferencias acerca de una población con base en los resultados obtenidos.
ESTIMACION POR INTERVALOS
La moda La moda es el valor que tiene mayor frecuencia absoluta.
Inferencia Estadística
Sesión 2: Teoría de Probabilidad
Inferencia Estadística
Modelado de datos Tema 4 Itziar Aretxaga. Ajuste de modelos: estimación de parámetros Dado un conjunto de medidas {x i }, i=1,...,N donde x i puede ser.
Sesión 7: Redes Bayesianas – Inferencia
Bioestadística Tema 7: Introducción a los contrastes de hipótesis.
INFERENCIA ESTADISTICA
Unidad V: Estimación de
Estimación de modelos ARMA
El Teorema central del Límite
LA ESTADÍSTICA PROF.: EDMUNDO C.PARDO H. CARACAS,OCTUBRE DE 2014
Estudios Profesionales para la Empresa
Probabilidad y Estadística X = x Unidad de muestreo Mediremos un atributo Variable aleatoria Valor que toma la variable aleatoria.
Sesión 2: Teoría de Probabilidad “Considero que la probabilidad representa el estado de la mente con respecto a una afirmación, evento u otra cosa para.
Elementos Básicos de Probabilidad y Estadística
Estimación y contraste de hipótesis
Sesión 6: Redes Bayesianas - Inferencia
P Y E 2004 Clase 19Gonzalo Perera1 Propiedades generales del p-valor Repaso de la clase anterior. Tests de aleatoriedad Estadística de datos dependientes.
Probabilidad y Estadística
BASES PARA EL RAZONAMIENTO EN ESTADÍSTICA INFERENCIAL
ESTIMACIÓN DE PARÁMETROS
estadístico de procesos.
Inferencia Estadística Antonio Núñez, ULPGC. Estadística Física/Tecnología y Estadística  Fenómenos, procesos y sistemas macroscópicos  Indeterminación,
P y E 2012 Clase 15Gonzalo Perera1 Repaso de la clase anterior. Métodos de estimación.
Aspectos generales de la investigación educativa en el SNIT
INFERENCIA ESTADÍSTICA
Distribuciones de Probabilidad Discretas Las distribuciones discretas que se tratarán son: 1.Binomial 2.Multinomial 3.Hipergeométrica 4.Hipergeométrica.
Estimación Estadística Tares # 3. Estimación Estadística Conjunto de técnicas que permiten dar un valor aproximado de un parámetro de una población a.
Intervalos de Confianza M. C. José Juan Rincón Pasaye UMSNH – FIE Mayo de 2003.
INTERVALO DE CONFIANZA
Transcripción de la presentación:

A

 Percentil al 68.3%,  :  P(x) dx =  

Si la distribución es continua, la media viene dada por y el resto de los momentos por

3

Si el número de eventos esperados, , en un intervalo de extensión h es  = h ( da la tasa de eventos por unidad de h),

Distribución gaussiana multidimensional En 2 dimensiones, la distribución centrada en (0,0) tiene la forma: donde  es el coeficiente de correlación, definido por Sus momentos característicos son: En general, para p dimensiones, la distribución gaussiana centrada en  viene dada por: donde x es el vector de la muestra (de p dimensiones),  es su valor medio, y  es la matriz de correlación entre las variables x Ejemplo: calculo de las probabilidades de propiedades intrínsecas atribuibles a galaxias (u otros objetos) a través de mapas color-color

Distribución de redshifts derivado del diagrama color-color:

1996, MNRAS, 281,945

Inferencia Bayesiana (Loredo T. 1992, en `Statistical Challenges in Modern Astronomy, ed. Feigelson & Babu, Springer, Dos diferentes intepretaciones del término probabilidad: frecuentista: frecuencia con que un cierto resultado se obtiene como resultado de la repetición infinita de un proceso. bayesiana: plausibilidad de que una proposición (modelo) pueda dar cuenta de un conjunto de datos. En muchas situaciones se obtiene el mismo resultado utilizando las dos técnicas, pero existen excepciones notables (ejem. Kraft et al. 1991, ApJ, 374, 344). Los dos métodos son fundamentalmente diferentes. Parten de concepciones opuestas sobre cúal es la información fidedigna y por evaluar (modelo o datos). Los cálculos bayesianos discriminan entre hipótesis plausibles, los cálculos frecuentistas evaluan la validez del conjunto de datos. Teorema de Bayes: Pasos a seguir en la inferencia Bayesiana: Especificar el modelo, o hipótesis a evaluar: en general tendremos varios H i a comparar Asignar las probabilidades: anterior P(H i ) anterior predictiva P(D) de muestreo P(D|H i ) Calcular la probabilida posterior mediante la fórmula de Bayes. Comparar los resultados entre los diferentes modelos, mediante el cociente de probabilidades posteriores P(H i |D)/H(H j |D) por ejemplo

Ejemplo: estimación de una media poissoniana Supongamos que hemos obtenido una medida de n eventos en un intervalo de tiempo T, y que deseamos inferir la frecuencia de eventos, r. 1.- Especificamos la hipótesis H, que el proceso es Poissoniano con una frecuencia de eventos 0  r  r max. 2.- Asignamos probabilidades: de muestreo: a priori (anterior): anterior predictiva: 3.- Aplicamos el teorema de Bayes para calcular la probabilidad posterior: Si Tr max >> n, entonces la función incompleta gamma se puede aproximar y la probabilidad posterior resulta Para el caso particular de detectar 7 eventos en 1 segundo, la probabilidad de que el proceso tenga una media de 10 eventos por segundo es del 9%: P(10 | 7) (nota: compárese con la probabilidad frecuentista)

Ejemplo: estimación de una media poissoniana sobre un fondo Supongamos que hemos obtenido una medida de N on eventos en un intervalo de tiempo T on, y que deseamos inferir la frecuencia de eventos de la señal, s, sobre el fondo, b. Se pretende estimar el fondo de una medida independiente de N off eventos en un intervalo T off. Como en el caso anterior p(b  N off ) = Para la medida con señal y fondo conjuntamente: p(sb|N on ) = p(sb) = p(s|b) p(b) donde es la prob. de muestreo p(s|b) = 1/s max p(b) = p(b | N off ) p(N on ) = 1/T on s max prob. anterior predictiva Para calcular la probabilidad posterior de la señal, hay que marginalizar el parámetro b, calculando p(s|N on ) =  db p(sb|N on ). Realizando la expansión del término (s+b) N on se encuentra T off (bT off ) N off e  bT off N off ! p(N on | sb) p(N on ) p(N on | sb) p(N on ) dan la probabilidad a priori }

Se debe resaltar que éste es un cálculo ambiguo bajo la inferencia frecuentista, aunque hay algunas publicaciones con aproximaciones no libres de inconsistencias (O’Morgain, 1973, Nature, 241, 376; Cherry et al. 1980, ApJ, 242, 1257)