Monte Carlo Hamiltoniano contro Monte Carlo Sequenziale


23

Sto cercando di farsi un'idea dei relativi pregi e svantaggi, nonché dei diversi domini applicativi di questi due schemi MCMC.

  • Quando useresti quale e perché?
  • Quando uno potrebbe fallire ma l'altro no (ad es. Dove è applicabile HMC ma SMC no, e viceversa)
  • Uno potrebbe, in modo molto ingenuo, mettere una misura di utilità su un metodo rispetto all'altro (cioè uno, in genere, è migliore )?

Attualmente sto leggendo l'eccellente lavoro di Betancourt su HMC .


3
SMC non è una tecnica MCMC, ovvero non esiste una catena Markov costruita quando si utilizza SMC.
Jaradniemi,

1
A volte usi mcmc in smc. E a volte usi smc in mcmc. Al momento della mia stesura di questo, non sono a conoscenza di alcun documento che combini l'uso di hmc e smc, però.
Taylor,

1
Io stesso vorrei capire meglio la relazione tra SMC (aka, filtro antiparticolato) e HMC. Grazie per la domanda! Prendo atto di questo documento, che a prima vista sembra rappresentare una sorta di fusione dei due approcci: arxiv.org/pdf/1504.05715v2.pdf
David C. Norris,

Risposte:


23

Hamiltoniano Monte Carlo si comporta bene con continue distribuzioni di target con forme "strane". Richiede che la distribuzione target sia differenziabile in quanto utilizza fondamentalmente la pendenza della distribuzione target per sapere dove andare. L'esempio perfetto è una funzione a forma di banana.

Ecco un Metropolis Hastings standard in una funzione Banana: tasso di accettazione del 66% e copertura molto scarsa. Metropolis Hastings con funzione Banana

Ecco con HMC: accettazione del 99% con una buona copertura. Metropolis Hastings con funzione Banana

SMC (il metodo alla base del filtro antiparticolato) è quasi imbattibile quando la distribuzione target è multimodale, specialmente se ci sono diverse aree separate con massa. Invece di avere una catena di Markov intrappolata in una modalità, hai diverse catene di Markov che corrono in parallelo. Si noti che lo si utilizza per stimare una sequenza di distribuzioni, generalmente di nitidezza crescente. È possibile generare la nitidezza crescente usando qualcosa di simile alla ricottura simulata (mettere un esponente progressivamente crescente sul bersaglio). O tipicamente, in un contesto bayesiano, la sequenza delle distribuzioni è la sequenza dei posteriori:

P(θ|y1),P(θ|y1,y2),...,P(θ|y1,y2,...,yN)

Ad esempio, questa sequenza è un obiettivo eccellente per SMC: inserisci qui la descrizione dell'immagine

La natura parallela di SMC lo rende particolarmente adatto per il calcolo distribuito / parallelo.

Sommario:

  • HMC: buono per bersaglio strano allungato. Non funziona con la funzione non continua.
  • SMC: buono per casi multimodali e non continui. Potrebbe convergere più lentamente o utilizzare più potenza di calcolo per forme strane ad alta dimensione.

Fonte: la maggior parte delle immagini proviene da un documento che ho scritto combinando i 2 metodi (Hamiltonian Sequential Monte Carlo). Questa combinazione può simulare praticamente qualsiasi distribuzione che possiamo lanciare, anche a dimensioni molto elevate.


1
Bello e chiaro; +1. Non ho idea del perché questo non abbia più voti!
Arboviral,

2
Ecco la carta per chi fosse interessato: remidaviet.com/files/HSMC-paper.pdf
stackoverflax
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.