Ho letto da qualche parte che il metodo Variational Bayes è una generalizzazione dell'algoritmo EM. In effetti, le parti iterative degli algoritmi sono molto simili. Per verificare se l'algoritmo EM è una versione speciale dei Bayes variazionali, ho provato quanto segue:
è dato, X è la raccolta di variabili latenti e Θ è i parametri. In Bayes variazionali possiamo fare un'approssimazione tale che P ( X , Θ | Y ) ≈ Q X ( X ) Q Θ ( Θ ) . Dove le Q sono distribuzioni più semplici e trattabili.
Poiché l'algoritmo EM trova una stima del punto MAP, ho pensato che Bayes variazionali possono convergere in EM se uso una funzione Delta tale che: . Θ 1 è la prima stima per i parametri come di solito eseguita in EM.
Quando viene dato , Q 1 X ( X ) che minimizza la divergenza KL si trova nella formula Q 1 X ( X ) = exp ( E δ Θ 1 [ ln P ( X , Y , Θ ) ] ) La formula sopra si semplifica aQ 1 X (X)=P(X|Θ1,Y), questo passaggio risulta essere il equivalente del passaggio Expectation dell'algoritmo EM!
Ma non posso derivare il passaggio di massimizzazione come continuazione di questo. Nel passaggio successivo dobbiamo calcolare e secondo la regola di iterazione di Bayes Variazionale questo è:
Gli algoritmi VB ed EM sono davvero collegati in questo modo? Come possiamo derivare EM come caso speciale delle Baye variazionali, il mio approccio è vero?