Campionamento da un posteriore impropria (densità) non ha senso da un punto probabilistica / di vista teorico. La ragione di ciò è che la funzione f non ha un integrale finito sullo spazio dei parametri e, di conseguenza, non può essere collegata a un modello di probabilità ( misura finita) ( Ω , σ , P ) (spazio, sigma-algebra, misura della probabilità ).ff(Ω,σ,P)
Se si dispone di un modello con un precedente improprio che porta a un posteriore improprio, in molti casi è ancora possibile campionarlo utilizzando MCMC, ad esempio Metropolis-Hastings, e i "campioni posteriori" possono sembrare ragionevoli. A prima vista sembra affascinante e paradossale. Tuttavia, la ragione di ciò è che i metodi MCMC sono limitati ai limiti numerici dei computer in pratica, e quindi, tutti i supporti sono limitati (e discreti!) Per un computer. Quindi, in base a tali restrizioni (limitatezza e discrezione) il posteriore è effettivamente corretto nella maggior parte dei casi.
C'è un grande riferimento di Hobert e Casella che presenta un esempio (di natura leggermente diversa) in cui è possibile costruire un campionatore Gibbs per un posteriore, i campioni posteriori sembrano perfettamente ragionevoli, ma il posteriore è improprio!
http://www.jstor.org/stable/2291572
Un esempio simile è recentemente apparso qui . In effetti, Hobert e Casella avvertono il lettore che i metodi MCMC non possono essere utilizzati per rilevare la scorrettezza del posteriore e che questo deve essere verificato separatamente prima di implementare qualsiasi metodo MCMC. In sintesi:
- Alcuni campionatori MCMC, come Metropolis-Hastings, possono (ma non dovrebbero) essere utilizzati per campionare da un posteriore improprio poiché il computer limita e divulga lo spazio dei parametri. Solo se si dispone di enormi campioni, si potrebbe essere in grado di osservare alcune cose strane. La capacità di rilevare questi problemi dipende anche dalla distribuzione "strumentale" utilizzata nel campionatore. Quest'ultimo punto richiede una discussione più ampia, quindi preferisco lasciarlo qui.
- (Hobert e Casella). Il fatto che sia possibile costruire un campionatore di Gibbs (modello condizionale) per un modello con un precedente improprio non implica che il posteriore (modello comune) sia corretto.
- Un'interpretazione probabilistica formale dei campioni posteriori richiede la proprietà del posteriore. I risultati e le prove di convergenza sono stabiliti solo per le opportune distribuzioni / misure di probabilità.
PS (un po 'di lingua sulla guancia): non sempre credere a ciò che le persone fanno in Machine Learning. Come ha affermato il prof. Brian Ripley: "l'apprendimento automatico è una statistica meno qualsiasi verifica di modelli e ipotesi".