Descargar la presentación
La descarga está en progreso. Por favor, espere
Publicada porCésar Pestana Modificado hace 10 años
1
Departament d’Estadística Divisió de Ciències Experimentals i Matemàtiques Montecarlo basado en cadenas de Markov Programa de doctorado Estadística, Análisis de datos y Bioestadística Métodos de Montecarlo y Estadística Computacional
2
Contenido Planteamiento. Posibles enfoques de Montecarlo Algoritmo general de Metropolis-Hastings Algoritmo de Metrópolis Muestreador de independencia Metropolis-Hastings paso a paso Condicionales completas Muestreo de Gibbs Algunas cuestiones abiertas
3
Planteamiento El método de Montecarlo permite determinar la distribución, p(y), de un estadístico, o algún aspecto de la misma (media, varianza) Ejemplos: –distribución posterior en un análisis bayesiano: –varianza de un estadístico (caso frecuentista):
4
Posibles enfoques de Montecarlo Típico “algoritmo de Montecarlo” para aproximar esta distribución: generar n muestras iid, x, evaluar repetidamente el estadístico sobre ellas t(x), y aproximar p mediante la distribución empírica de valores obtenidos. Alternativamente: generar proceso estocástico cuya distribución estacionaria sea p. Después de fase transitoria (“fase de calentamiento”), recolectar valores t(x t ), t=1,...,n, no independientes pero con distribución, muy aproximadamente, p.
5
Algoritmo de Metropolis-Hastings Posible generador: proceso de Markov, p(x t+1 |X t =x t,..., X 0 =x 0 )=p(x t+1 |X t =x t ). Algoritmo de Metropolis-Hastings: en fase t, próximo valor X t+1 generado a partir de X t =x t proponiendo valor Y a partir de densidad q(y| X t =x t ). Este valor se acepta como el siguiente X t+1 con probabilidad a(x t,y), o se rechaza y se vuelve a generar un nuevo y, etc. Ciertamente, genera una cadena de Markov. Pero objetivo es que distribución estacionaria sea p.
6
Algoritmo de Metropolis-Hastings ¿Qué densidad q hay que utilizar?: cualquiera sirve (bajo ciertas condiciones) siempre que No todas las q igual de eficientes, compromiso: –Alta probabilidad de aceptación –Fase de calentamiento corta –Que no sean slow mixing chains Los distintos métodos de Montecarlo de Markov difieren en la elección de q.
7
Algoritmo de Metrópolis Densidades simétricas q(x|y)=q(y|x) para todo x,y. Ejemplo: q( · |x) normal multivariante de media x y S constante. También caminata aleatoria de Metropolis q(y|x)=q(|x-y|). Probabilidad de aceptación: Elección del parámetro de escala (S) delicada: si y-x t tiende a ser pequeñoa (y,x t ) grande pero con lenta velocidad de mixtura.
8
Muestreador de independencia Basado en q(y|x)=q(y). Conduce a Suele funcionar bien cuando q es una buena aproximación a p, pero con colas más pesadas. Típica elección si aplicable TCL: q normal multivariante de media igual a la moda de p y matriz de covarianzas “algo mayor que”
9
Metropolis-Hastings paso a paso (single component) En lugar de actualizar X en bloque, mejor considerar componentes {X 1,X 2,...,X h } y actualitzarlas una a una. Notación: X -i = {X 1,X 2,...,X i-1, X i+1,...,X h } Cada iteración dividida en h etapas. Etapa i de t t+1 actualiza X t.i : se propone Y i según q i (y i |x t.i,x t.-i ), con x t.-i = {x t+1.1,x t+1.2,...,x t+1.i-1, x t.i+1,...,x t.h }. Aceptado con probabilidad
10
Muestreo de Gibbs Es el algoritmo de Montecarlo de Markov más conocido y utilizado. Caso particular de Metropolis-Hastings paso a paso: emplear Seguridad total de aceptación: a(x,y)=1. Existen muy buenos métodos para generar valores a partir de condicionales totales. Conocido de antiguo en Mecánica estadística “descubierto” en los años 80 por estadísticos.
11
Condicionales completas p(x i |x -i ) se conoce como la distribución condicional completa, la distribución de x i dadas las restantes componentes. Algoritmo de Metropolis-Hastings continua siendo válido ya que el conjunto de todas las condicionales completas determina unívocamente p. Resultado importante en estadística espacial. Algoritmo paso a paso: ventajas computacionales, simplificación de a,...
12
Algunas cuestiones abiertas, mal conocidas todavía Orden de actualización en algoritmos paso a paso, no necesariamente actualizar siempre en orden i=1,2,...,h. (Incluso se ha propuesto que orden aleatorio es mejor en ciertos casos). Número de cadenas: ¿muestrear de varias cadenas de Markov cortas (independientes entre ellas) o de una única, larga? Elección de valores iniciales x 0. Teóricamente no importan pero pueden influir en longitud de “fase de calentamiento”.
13
Más cuestiones abiertas Longitud de la fase de calentamiento –Difícil determinarla analíticamente –Criterios empíricos basados en datos generados: Diagnósticos gráficos: los más utilizados Serían preferibles criterios de decisión más rigurosos (diagnósticos de convergencia): existen muchos, tema difícil y dependiente de decisiones como una o muchas cadenas, funciones que expresan el grado de estacionariedad, etc Momento de interrupción –Vinculado a estimación de la precisión –Difícil debido a la dependencia entre observaciones
Presentaciones similares
© 2025 SlidePlayer.es Inc.
All rights reserved.