Attualmente sto imparando i modelli gerarchici bayesiani usando JAGS da R, e anche pymc usando Python ( "Metodi bayesiani per hacker" ).
Da questo post posso trarre qualche intuizione : "finirai con un mucchio di numeri che sembrano" come se "tu fossi in qualche modo riuscito a prendere campioni indipendenti dalla complicata distribuzione che volevi conoscere". È qualcosa che posso dare la probabilità condizionale, quindi posso generare un processo senza memoria basato sulla probabilità condizionale. Quando generi il processo abbastanza a lungo, allora la probabilità congiunta può convergere e quindi posso prendere un mucchio di numeri alla fine della sequenza generata. È proprio come se prendo campioni indipendenti dalla complicata distribuzione articolare. Ad esempio, posso creare un istogramma e può approssimare la funzione di distribuzione.
Quindi il mio problema è, devo dimostrare se un MCMC converge per un determinato modello? Sono motivato a saperlo perché in precedenza ho imparato l'algoritmo EM per GMM e LDA (modelli grafici). Se posso semplicemente usare l'algoritmo MCMC senza provare se converge, allora può risparmiare molto più tempo di EM. Dal momento che dovrò calcolare la funzione di probabilità logaritmica prevista (dovrà calcolare la probabilità posteriore), quindi massimizzare la verosimiglianza logaritmica prevista. Apparentemente è più ingombrante dell'MCMC (ho solo bisogno di formulare la probabilità condizionale).
Mi chiedo anche se la funzione di verosimiglianza e la distribuzione precedente siano coniugate. Significa che l'MCMC deve convergere? Mi chiedo quali siano i limiti di MCMC e EM.