Gli algoritmi MCMC come Metropolis-Hastings e il campionamento di Gibbs sono metodi di campionamento dalle distribuzioni posteriori articolari.
Penso di capire e di implementare abbastanza velocemente la metropoli: basta semplicemente scegliere i punti di partenza in qualche modo e "camminare nello spazio dei parametri" in modo casuale, guidato dalla densità posteriore e dalla densità della proposta. Il campionamento di Gibbs sembra molto simile ma più efficiente poiché aggiorna solo un parametro alla volta, mantenendo gli altri costanti, percorrendo efficacemente lo spazio in modo ortogonale.
Per fare ciò, è necessario il condizionale completo di ciascun parametro in analitico da *. Ma da dove provengono questi condizionali completi? Per ottenere il denominatore devi emarginare il giunto sopra . Sembra un sacco di lavoro da svolgere analiticamente se ci sono molti parametri e potrebbe non essere trattabile se la distribuzione congiunta non è molto "piacevole". Mi rendo conto che se usi la coniugazione in tutto il modello, i condizionali completi potrebbero essere facili, ma deve esserci un modo migliore per situazioni più generali.
Tutti gli esempi di campionamento di Gibbs che ho visto online usano esempi di giocattoli (come il campionamento da una normale multivariata, in cui i condizionali sono solo normali), e sembrano eludere questo problema.
* O hai bisogno di tutti i condizionali completi in forma analitica? Come lo fanno programmi come winBUGS?