Quando è utile MCMC?


12

Ho difficoltà a capire in quale situazione l'approccio MCMC è effettivamente utile. Sto esaminando un esempio di giocattolo tratto dal libro di Kruschke "Fare analisi dei dati bayesiani: un tutorial con R e BUG".

Ciò che ho capito finora è che abbiamo bisogno di una distribuzione target che sia proporzionale a per avere un campione di . Tuttavia, mi sembra che una volta che abbiamo dobbiamo solo normalizzare la distribuzione per ottenere il posteriore, e il fattore di normalizzazione può essere facilmente trovato numericamente. Quindi quali sono i casi in cui ciò non è possibile?p(D|θ)p(θ)P(θ|D)p(D|θ)p(θ)


2
Supponiamo che non sia uno scalare ma invece sia un vettore \ boldsymbol \ theta con 10000 dimensioni. θθ
Jan Galkowski,

1
La mia risposta è stata un po 'concisa. Per ottenere la costante, è necessario calcolare p(D|θ)p(θ) . Anche nel caso scalare, supponiamo che p(D|θ) sia davvero traballante, quindi l'integrazione è difficile da fare, anche numericamente. Quindi potresti voler usare MCMC.
Jan Galkowski,

2
Un avvertimento da parte di Alan Sokal: "Monte Carlo è un metodo estremamente cattivo; dovrebbe essere usato solo quando tutti i metodi alternativi sono peggiori". Quindi intraprende una lunga discussione dei metodi MC. stat.unc.edu/faculty/cji/Sokal.pdf
Yair Daon

1
@Yair: Mi sembra che Sokal stia canalizzando Churchill.
cardinale il

1
Quando nient'altro funzionerà ...
kjetil b halvorsen,

Risposte:


10

L'integrazione di Monte Carlo è una forma di integrazione numerica che può essere molto più efficiente rispetto, ad esempio, all'integrazione numerica approssimando l'integrando con i polinomi. Ciò è particolarmente vero in dimensioni elevate, dove semplici tecniche di integrazione numerica richiedono un numero elevato di valutazioni delle funzioni. Per calcolare la costante di normalizzazione , potremmo usare il campionamento di importanza ,p(D)

p(D)=q(θ)q(θ)p(θ)p(Dθ)dθ1Nnwnp(θn)p(Dθn),

dove e sono campionati da . Si noti che dobbiamo solo valutare la distribuzione congiunta nei punti campionati. Per la giusta , questo stimatore può essere molto efficiente nel senso che richiede pochissimi campioni. In pratica, scegliere una appropriata può essere difficile, ma è qui che MCMC può aiutarti! Il campionamento di importanza ricotto (Neal, 1998) combina MCMC con campionamento di importanza.θ nwn=1/q(θn)θnq qqqq

Un altro motivo per cui MCMC è utile è questo: di solito non siamo nemmeno così interessati alla densità posteriore di , ma piuttosto a statistiche riassuntive e aspettative , ad es.θ

p(θD)f(θ)dθ.

Conoscere non significa generalmente che possiamo risolvere questo integrale, ma i campioni sono un modo molto conveniente per stimarlo.p(D)

Infine, essere in grado di valutare è un requisito per alcuni metodi MCMC, ma non tutti (ad esempio Murray et al., 2006 ).p(Dθ)p(θ)


Mi dispiace, ma questo non mi è ancora chiaro. La mia domanda è: se moltiplichiamo semplicemente otteniamo un pdf non normale. Eseguendo MCMC otteniamo un campione per il quale possiamo stimare il pdf non normalizzato. Se vogliamo, potremmo normalizzare entrambi. Quindi, supponendo che non mi interessino le statistiche riassuntive, ma solo quelle posteriori, perché utilizziamo MCMC in primo luogo? Come hai detto, alcuni metodi MCMC non richiedono il calcolo di , quindi non mi riferisco a quelli. Per quanto ne so, molti di loro richiedono il calcolo di questo. Qual è l'utilità di questi metodi? p ( D | θ ) p ( θ )p(D|θ)p(θ)p(D|θ)p(θ)
Vaaal,

2
Quando esegui MCMC ottieni un campione dal pdf normalizzato, quindi evita di calcolare la costante di normalizzazione. E questo è gratis.
Xi'an,

2
@Vaaal: il tuo presupposto che "il fattore di normalizzazione può essere facilmente trovato numericamente" vale solo per le distribuzioni univariate semplici. Per alta dimensione , la normalizzazione di è generalmente estremamente difficile. In questo caso, MCMC può ancora essere utilizzato per stimare la costante di normalizzazione (ad es. Tramite campionamento dell'importanza ricotto). θp(Dθ)p(θ)
Lucas,

6

Quando ti viene data una precedente e una probabilità che non sono calcolabili in forma chiusa o tali che la distribuzione posteriore non è di tipo standard, la simulazione diretta da questo obiettivo verso un'approssimazione di Monte Carlo della distribuzione posteriore non è fattibile. Un esempio tipico è costituito da modelli gerarchici con priori non coniugati, come quelli trovati nel libro BUGS .p(θ)f(x|θ)

p(θ|x)p(θ)f(x|θ)

I metodi di simulazione indiretta come tecniche di accettazione-rifiuto, rapporto di uniformità o campionamento di importanza incontrano abitualmente difficoltà numeriche e di precisione quando la dimensione del parametro aumenta oltre alcune unità.θ

Al contrario, i metodi Monteov della catena di Markov sono più adatti a grandi dimensioni in quanto possono esplorare la distribuzione posteriore su base locale, cioè in un quartiere del valore corrente e su un numero minore di componenti, cioè su sottospazi. Ad esempio, il campionatore di Gibbs convalida l'idea che la simulazione da un obiettivo monodimensionale alla volta, vale a dire le distribuzioni condizionali complete associate a , è sufficiente per ottenere la simulazione dal vero posteriore nel lungo periodo.p(θ|x)

La catena di Markov Monte Carlo applica anche un certo grado di universalità in quanto algoritmi come l'algoritmo Metropolis-Hastings sono formalmente disponibili per qualsiasi distribuzione posteriore che può essere calcolata fino a una costante.p(θ|x)

Nei casi in cui non può essere facilmente calcolato, esistono alternative, sia completando questa distribuzione in una distribuzione gestibile su uno spazio più ampio, come in o tramite metodi non markoviani come ABC .p ( θ ) f ( x | θ ) g ( z | θ , x ) p ( θ ) f ( x | θ ) d zp(θ)f(x|θ)

p(θ)f(x|θ)g(z|θ,x)p(θ)f(x|θ)dz

I metodi MCMC hanno fornito una portata molto più ampia per i metodi bayesiani, come dimostrato dall'impennata che ha seguito la divulgazione del metodo da parte di Alan Gelfand e Adrian Smith nel 1990.


Il link a THE BUGS BOOK non funziona più.
HelloWorld,
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.