Quando ti viene data una precedente e una probabilità che non sono calcolabili in forma chiusa o tali che la distribuzione posteriore non è di tipo standard, la simulazione diretta da questo obiettivo verso un'approssimazione di Monte Carlo della distribuzione posteriore non è fattibile. Un esempio tipico è costituito da modelli gerarchici con priori non coniugati, come quelli trovati nel libro BUGS .p(θ)f(x|θ)
p(θ|x)∝p(θ)f(x|θ)
I metodi di simulazione indiretta come tecniche di accettazione-rifiuto, rapporto di uniformità o campionamento di importanza incontrano abitualmente difficoltà numeriche e di precisione quando la dimensione del parametro aumenta oltre alcune unità.θ
Al contrario, i metodi Monteov della catena di Markov sono più adatti a grandi dimensioni in quanto possono esplorare la distribuzione posteriore su base locale, cioè in un quartiere del valore corrente e su un numero minore di componenti, cioè su sottospazi. Ad esempio, il campionatore di Gibbs convalida l'idea che la simulazione da un obiettivo monodimensionale alla volta, vale a dire le distribuzioni condizionali complete associate a , è sufficiente per ottenere la simulazione dal vero posteriore nel lungo periodo.p(θ|x)
La catena di Markov Monte Carlo applica anche un certo grado di universalità in quanto algoritmi come l'algoritmo Metropolis-Hastings sono formalmente disponibili per qualsiasi distribuzione posteriore che può essere calcolata fino a una costante.p(θ|x)
Nei casi in cui non può essere facilmente calcolato, esistono alternative, sia completando questa distribuzione in una distribuzione gestibile su uno spazio più ampio, come in o tramite metodi non markoviani come ABC .p ( θ ) f ( x | θ ) ∝ ∫ g ( z | θ , x ) p ( θ ) f ( x | θ ) d zp(θ)f(x|θ)
p(θ)f(x|θ)∝∫g(z|θ,x)p(θ)f(x|θ)dz
I metodi MCMC hanno fornito una portata molto più ampia per i metodi bayesiani, come dimostrato dall'impennata che ha seguito la divulgazione del metodo da parte di Alan Gelfand e Adrian Smith nel 1990.