La descarga está en progreso. Por favor, espere

La descarga está en progreso. Por favor, espere

Departament d’Estadística Divisió de Ciències Experimentals i Matemàtiques Montecarlo basado en cadenas de Markov Programa de doctorado Estadística, Análisis.

Presentaciones similares


Presentación del tema: "Departament d’Estadística Divisió de Ciències Experimentals i Matemàtiques Montecarlo basado en cadenas de Markov Programa de doctorado Estadística, Análisis."— Transcripción de la presentación:

1 Departament d’Estadística Divisió de Ciències Experimentals i Matemàtiques Montecarlo basado en cadenas de Markov Programa de doctorado Estadística, Análisis de datos y Bioestadística Métodos de Montecarlo y Estadística Computacional

2 Contenido  Planteamiento. Posibles enfoques de Montecarlo  Algoritmo general de Metropolis-Hastings  Algoritmo de Metrópolis  Muestreador de independencia  Metropolis-Hastings paso a paso Condicionales completas  Muestreo de Gibbs  Algunas cuestiones abiertas

3 Planteamiento  El método de Montecarlo permite determinar la distribución, p(y), de un estadístico, o algún aspecto de la misma (media, varianza)  Ejemplos: –distribución posterior en un análisis bayesiano: –varianza de un estadístico (caso frecuentista):

4 Posibles enfoques de Montecarlo  Típico “algoritmo de Montecarlo” para aproximar esta distribución: generar n muestras iid, x, evaluar repetidamente el estadístico sobre ellas t(x), y aproximar p mediante la distribución empírica de valores obtenidos.  Alternativamente: generar proceso estocástico cuya distribución estacionaria sea p. Después de fase transitoria (“fase de calentamiento”), recolectar valores t(x t ), t=1,...,n, no independientes pero con distribución, muy aproximadamente, p.

5 Algoritmo de Metropolis-Hastings  Posible generador: proceso de Markov, p(x t+1 |X t =x t,..., X 0 =x 0 )=p(x t+1 |X t =x t ).  Algoritmo de Metropolis-Hastings: en fase t, próximo valor X t+1 generado a partir de X t =x t proponiendo valor Y a partir de densidad q(y| X t =x t ). Este valor se acepta como el siguiente X t+1 con probabilidad a(x t,y), o se rechaza y se vuelve a generar un nuevo y, etc.  Ciertamente, genera una cadena de Markov. Pero objetivo es que distribución estacionaria sea p.

6 Algoritmo de Metropolis-Hastings  ¿Qué densidad q hay que utilizar?: cualquiera sirve (bajo ciertas condiciones) siempre que  No todas las q igual de eficientes, compromiso: –Alta probabilidad de aceptación –Fase de calentamiento corta –Que no sean slow mixing chains  Los distintos métodos de Montecarlo de Markov difieren en la elección de q.

7 Algoritmo de Metrópolis  Densidades simétricas q(x|y)=q(y|x) para todo x,y. Ejemplo: q( · |x) normal multivariante de media x y S constante. También caminata aleatoria de Metropolis q(y|x)=q(|x-y|).  Probabilidad de aceptación:  Elección del parámetro de escala (S) delicada: si y-x t tiende a ser pequeñoa (y,x t ) grande pero con lenta velocidad de mixtura.

8 Muestreador de independencia  Basado en q(y|x)=q(y). Conduce a  Suele funcionar bien cuando q es una buena aproximación a p, pero con colas más pesadas.  Típica elección si aplicable TCL: q normal multivariante de media igual a la moda de p y matriz de covarianzas “algo mayor que”

9 Metropolis-Hastings paso a paso (single component)  En lugar de actualizar X en bloque, mejor considerar componentes {X 1,X 2,...,X h } y actualitzarlas una a una.  Notación: X -i = {X 1,X 2,...,X i-1, X i+1,...,X h }  Cada iteración dividida en h etapas. Etapa i de t  t+1 actualiza X t.i : se propone Y i según q i (y i |x t.i,x t.-i ), con x t.-i = {x t+1.1,x t+1.2,...,x t+1.i-1, x t.i+1,...,x t.h }. Aceptado con probabilidad

10 Muestreo de Gibbs  Es el algoritmo de Montecarlo de Markov más conocido y utilizado.  Caso particular de Metropolis-Hastings paso a paso: emplear  Seguridad total de aceptación: a(x,y)=1.  Existen muy buenos métodos para generar valores a partir de condicionales totales.  Conocido de antiguo en Mecánica estadística “descubierto” en los años 80 por estadísticos.

11 Condicionales completas  p(x i |x -i ) se conoce como la distribución condicional completa, la distribución de x i dadas las restantes componentes.  Algoritmo de Metropolis-Hastings continua siendo válido ya que el conjunto de todas las condicionales completas determina unívocamente p. Resultado importante en estadística espacial.  Algoritmo paso a paso: ventajas computacionales, simplificación de a,...

12 Algunas cuestiones abiertas, mal conocidas todavía  Orden de actualización en algoritmos paso a paso, no necesariamente actualizar siempre en orden i=1,2,...,h. (Incluso se ha propuesto que orden aleatorio es mejor en ciertos casos).  Número de cadenas: ¿muestrear de varias cadenas de Markov cortas (independientes entre ellas) o de una única, larga?  Elección de valores iniciales x 0. Teóricamente no importan pero pueden influir en longitud de “fase de calentamiento”.

13 Más cuestiones abiertas  Longitud de la fase de calentamiento –Difícil determinarla analíticamente –Criterios empíricos basados en datos generados: Diagnósticos gráficos: los más utilizados Serían preferibles criterios de decisión más rigurosos (diagnósticos de convergencia): existen muchos, tema difícil y dependiente de decisiones como una o muchas cadenas, funciones que expresan el grado de estacionariedad, etc  Momento de interrupción –Vinculado a estimación de la precisión –Difícil debido a la dependencia entre observaciones


Descargar ppt "Departament d’Estadística Divisió de Ciències Experimentals i Matemàtiques Montecarlo basado en cadenas de Markov Programa de doctorado Estadística, Análisis."

Presentaciones similares


Anuncios Google