Departament d’Estadística Divisió de Ciències Experimentals i Matemàtiques Montecarlo basado en cadenas de Markov Programa de doctorado Estadística, Análisis.

Slides:



Advertisements
Presentaciones similares
DISEÑO DE EXPERIMENTOS EXPERIMENTOS DE COMPARACIÓN SIMPLE
Advertisements

MÉTODOS Y DISEÑOS DE INVESTIGACIÓN METODOLOGÍAS DE INVESTIGACIÓN
Tema 16: Contraste paramétrico de hipótesis I: Pruebas de contraste para un grupo. Pruebas de contraste para dos grupos: independientes o relacionados.
Tema 13. Inferencia estadística Principales conceptos. Muestreo
Inferencia estadística
Departament destadísticoa Grup destadísticoa Computacional Introducción a la metodología bootstrap Jordi Ocaña Departament destadísticoa Secció Departamental.
Bivariadas y Multivariadas
Intervalos de confianza bootstrap métodos percentil
Procesos Estocásticos
KRIGING.
Generación de Variables Aleatorias
Estadísticos de Prueba en el Modelo de Regresión Múltiple
MODELO DE REGRESIÓN MÚLTIPLE
INFERENCIA ESTADÍSTICA
Tests de permutaciones y tests de aleatorización
Capitulo 10: La metodología Box-Jenkins
Departament d’Estadística Divisió de Ciències Experimentals i Matemàtiques Hepatitis B: un ejemplo de Montecarlo basado en Cadenas de Markov Programa de.
Regresión y correlación
Departament d’Estadística Divisió de Ciències Experimentals i Matemàtiques Introducción al concepto de verosimilitud Programa de doctorado en Estadística,
PROCESAMIENTO DE DATOS DE VIENTO 1º Parte.
Inferencia Estadística Departament d’Estadística
CENSURA A LA DERECHA E IZQUIERDA
Tema 1- Regresión lineal simple.
FUNCIONES DE DENSIDAD DE PROBABILIDAD
Universidad Mexicana en Línea Carrera: Administración Pública Asignatura: Estadística Tutor: Leonardo Olmedo Alumno: Alfredo Camacho Cordero Matrícula:
Curso Práctico de Bioestadística Con Herramientas De Excel Fabrizio Marcillo Morla MBA (593-9)
TIPOS DE MODELOS DE REGRESIÓN Y SUPUESTOS PARA EL MODELO A
Departament d’Estadística Divisió de Ciències Experimentals i Matemàtiques Generación de números aleatorios Programa de doctorado en Biometría y Estadística.
Diseño Estadístico y Herramientas para la Calidad
Procesos Estocásticos
Vectores Aleatorios 1 Distribución conjunta de un vector aleatorio
Tema 17: Contraste paramétrico de hipótesis I: Pruebas de contraste para un grupo. Pruebas de contraste para dos grupos: independientes o relacionados.
Elementos Básicos de Probabilidad y Estadística Javier Aparicio División de Estudios Políticos, CIDE Julio 2009
Departament d’Estadística Divisió de Ciències Experimentals i Matemàtiques Estimación de máxima verosimilitud Programa de doctorado en Estadística, Análisis.
Departament d’Estadística Divisió de Ciències Experimentals i Matemàtiques Generación de vectores aleatorios Programa de doctorado en Biometría y Estadística.
Método Alias (Walter 1977) Permite generar de manera eficiente v.a.d. Con soporte finito. Supongamos que se desea generar la v.a.d. X con función de cuantía.
Departament d’Estadística Divisió de Ciències Experimentals i Matemàtiques Suficiencia y familia exponencial Programa de doctorado en Estadística, Análisis.
Distribución Normal Distribución Normal
Unidad V: Estimación de
Distribución Normal o gaussiana
Curso de Bioestadística. ANOVA
Reconocimiento de Formas en Data Mining Prof: Héctor Allende Capítulo 2 Aproximación Paramétrica.
Universidad Nacional de Colombia Curso Análisis de Datos Cuantitativos.
Act. Carlos Vladimir Rodríguez Caballero HSBC MÉXICO Facultad de Ciencias Riesgo de CréditoUNAM AME p.1/16.
Capítulo 7 Estimación de Parámetros Estadística Computacional
Departament d’Estadística Divisió de Ciències Experimentals i Matemàtiques Cantidad de Información de Fisher y propiedades de los MLE Programa de doctorado.
Análisis Cuantitativo de Datos (Básico)
Titular: Agustín Salvia
Análisis y diseño de experimentos
Ejemplos de inferencia bayesiana normal
Repaso de clase anterior
Inferencia Multivariante Cap 10 y 11
Capítulo 1. Conceptos básicos de la Estadística
Econometría Procesos Estocásticos Capitulo IV
Regresión lineal múltiple
P Y E 2012 Clase 11Gonzalo Perera1 Repaso de clase anterior Fórmula del bloqueo de Erlang. LFGN y el problema de la Robustez.
UNIDAD 1.- EVALUACIÓN DE DATOS ANALITICOS
Nociones Básicas de Análisis Estadístico de Muestras
Pruebas de hipótesis.
Elementos Básicos de Probabilidad y Estadística
P Y E 2004 Clase 19Gonzalo Perera1 Propiedades generales del p-valor Repaso de la clase anterior. Tests de aleatoriedad Estadística de datos dependientes.
PLANES DE MUESTREO Y GRAFICAS DE CONTROL
LA SELECCIÓN DE LAS MUESTRAS EN EL PROCESO DE INVESTIGACIÓN
Aspectos generales de la investigación educativa en el SNIT
Clase N°9 Análisis de output en el largo plazo (Parte II) ICS3723 Simulación Profesor Pedro Gazmuri.
Técnicas numéricas para el procesamiento de datos reales Antonio Turiel Instituto de Ciencias del Mar de Barcelona.
Pruebas paramétricas y no paramétricas
REGRESIÓN LINEAL SIMPLE
RELACIÓN ENTRE UNA VARIABLE DEPENDIENTE Y UNA O MAS INDEPENDIENTES.
Estimación Estadística Tares # 3. Estimación Estadística Conjunto de técnicas que permiten dar un valor aproximado de un parámetro de una población a.
Transcripción de la presentación:

Departament d’Estadística Divisió de Ciències Experimentals i Matemàtiques Montecarlo basado en cadenas de Markov Programa de doctorado Estadística, Análisis de datos y Bioestadística Métodos de Montecarlo y Estadística Computacional

Contenido  Planteamiento. Posibles enfoques de Montecarlo  Algoritmo general de Metropolis-Hastings  Algoritmo de Metrópolis  Muestreador de independencia  Metropolis-Hastings paso a paso Condicionales completas  Muestreo de Gibbs  Algunas cuestiones abiertas

Planteamiento  El método de Montecarlo permite determinar la distribución, p(y), de un estadístico, o algún aspecto de la misma (media, varianza)  Ejemplos: –distribución posterior en un análisis bayesiano: –varianza de un estadístico (caso frecuentista):

Posibles enfoques de Montecarlo  Típico “algoritmo de Montecarlo” para aproximar esta distribución: generar n muestras iid, x, evaluar repetidamente el estadístico sobre ellas t(x), y aproximar p mediante la distribución empírica de valores obtenidos.  Alternativamente: generar proceso estocástico cuya distribución estacionaria sea p. Después de fase transitoria (“fase de calentamiento”), recolectar valores t(x t ), t=1,...,n, no independientes pero con distribución, muy aproximadamente, p.

Algoritmo de Metropolis-Hastings  Posible generador: proceso de Markov, p(x t+1 |X t =x t,..., X 0 =x 0 )=p(x t+1 |X t =x t ).  Algoritmo de Metropolis-Hastings: en fase t, próximo valor X t+1 generado a partir de X t =x t proponiendo valor Y a partir de densidad q(y| X t =x t ). Este valor se acepta como el siguiente X t+1 con probabilidad a(x t,y), o se rechaza y se vuelve a generar un nuevo y, etc.  Ciertamente, genera una cadena de Markov. Pero objetivo es que distribución estacionaria sea p.

Algoritmo de Metropolis-Hastings  ¿Qué densidad q hay que utilizar?: cualquiera sirve (bajo ciertas condiciones) siempre que  No todas las q igual de eficientes, compromiso: –Alta probabilidad de aceptación –Fase de calentamiento corta –Que no sean slow mixing chains  Los distintos métodos de Montecarlo de Markov difieren en la elección de q.

Algoritmo de Metrópolis  Densidades simétricas q(x|y)=q(y|x) para todo x,y. Ejemplo: q( · |x) normal multivariante de media x y S constante. También caminata aleatoria de Metropolis q(y|x)=q(|x-y|).  Probabilidad de aceptación:  Elección del parámetro de escala (S) delicada: si y-x t tiende a ser pequeñoa (y,x t ) grande pero con lenta velocidad de mixtura.

Muestreador de independencia  Basado en q(y|x)=q(y). Conduce a  Suele funcionar bien cuando q es una buena aproximación a p, pero con colas más pesadas.  Típica elección si aplicable TCL: q normal multivariante de media igual a la moda de p y matriz de covarianzas “algo mayor que”

Metropolis-Hastings paso a paso (single component)  En lugar de actualizar X en bloque, mejor considerar componentes {X 1,X 2,...,X h } y actualitzarlas una a una.  Notación: X -i = {X 1,X 2,...,X i-1, X i+1,...,X h }  Cada iteración dividida en h etapas. Etapa i de t  t+1 actualiza X t.i : se propone Y i según q i (y i |x t.i,x t.-i ), con x t.-i = {x t+1.1,x t+1.2,...,x t+1.i-1, x t.i+1,...,x t.h }. Aceptado con probabilidad

Muestreo de Gibbs  Es el algoritmo de Montecarlo de Markov más conocido y utilizado.  Caso particular de Metropolis-Hastings paso a paso: emplear  Seguridad total de aceptación: a(x,y)=1.  Existen muy buenos métodos para generar valores a partir de condicionales totales.  Conocido de antiguo en Mecánica estadística “descubierto” en los años 80 por estadísticos.

Condicionales completas  p(x i |x -i ) se conoce como la distribución condicional completa, la distribución de x i dadas las restantes componentes.  Algoritmo de Metropolis-Hastings continua siendo válido ya que el conjunto de todas las condicionales completas determina unívocamente p. Resultado importante en estadística espacial.  Algoritmo paso a paso: ventajas computacionales, simplificación de a,...

Algunas cuestiones abiertas, mal conocidas todavía  Orden de actualización en algoritmos paso a paso, no necesariamente actualizar siempre en orden i=1,2,...,h. (Incluso se ha propuesto que orden aleatorio es mejor en ciertos casos).  Número de cadenas: ¿muestrear de varias cadenas de Markov cortas (independientes entre ellas) o de una única, larga?  Elección de valores iniciales x 0. Teóricamente no importan pero pueden influir en longitud de “fase de calentamiento”.

Más cuestiones abiertas  Longitud de la fase de calentamiento –Difícil determinarla analíticamente –Criterios empíricos basados en datos generados: Diagnósticos gráficos: los más utilizados Serían preferibles criterios de decisión más rigurosos (diagnósticos de convergencia): existen muchos, tema difícil y dependiente de decisiones como una o muchas cadenas, funciones que expresan el grado de estacionariedad, etc  Momento de interrupción –Vinculado a estimación de la precisión –Difícil debido a la dependencia entre observaciones