Aiuto nell'ottimizzazione delle aspettative dalla carta: come includere la distribuzione precedente?


9

La domanda si basa sull'articolo intitolato: Ricostruzione dell'immagine nella tomografia ottica diffusa utilizzando il modello di trasporto-diffusione radiativo accoppiato

Link per scaricare

Gli autori applicano l'algoritmo EM con regolarizzazione della sparsità di un vettore sconosciuto per stimare i pixel di un'immagine. Il modello è dato dal1μ

(1)y=Aμ+e
La stima è data in Eq (8) come

(2)μ^=argmaxlnp(y|μ)+γlnp(μ)

Nel mio caso, ho considerato un filtro di lunghezza e sono vettori che rappresentano i filtri. Così,μLμL×1

Il modello può essere riscritto come

(3)y(n)=μTa(n)+v(n)

Domanda: Formulazione del problema: (n per 1) è l'input non osservato e è la media zero con varianza sconosciuta \ sigma ^ 2_e rumore additivo. La soluzione MLE si baserà su Expectation Maximization (EM).μ(n){e(n)}σe2

Nel documento Eq (19) è la funzione A - la verosimiglianza completa del log, ma nel mio caso non capisco come posso includere la distribuzione di A,μ nell'espressione completa di verosimiglianza.

Quale sarà la verosimiglianza completa usando EM di y inclusa la distribuzione precedente?


Vuoi davvero la verosimiglianza o vuoi invece il log-posteriore? Solo quest'ultimo includerà il priore Laplaciano. Il primo può essere ottenuto semplicemente prendendo il registro della probabilità, che sembra che tu abbia già scritto

Ci sono due espressioni che desidero: (1) una che verrà utilizzata per trovare la Fisher Information Matrix e l'altra (2) sarà il pdf del set di dati completo che include la variabile nascosta e le osservazioni che sono il comune densità di probabilità dei dati osservati in funzione del parametro . Il pdf che ho scritto è applicabile al modello MA per una stima cieca di . Ma come sarà diverso per il vincolo di sparsità = Laplaciano precedente in modo che si possa trovare la matrice di informazioni di Fisher dai derivati ​​parziali della verosimiglianza. θ θZθθ
SKM

@ Xi'an: non capisco come collegare i 3 pdf che includono il precedente nella formulazione della verosimiglianza. Posso elaborare la massimizzazione che è quella di prendere la derivata parziale ed equivalere a zero. Potresti per favore dare una risposta con l'espressione della probabilità esplicitamente scritta. Questo sarà di grande aiuto
SKM

Risposte:


3

Se consideriamo il target come la rappresentazione alla base di EM è per un arbitrario , a causa della decomposizione or che funziona per un valore arbitrario di (poiché non è presente alcun valore su lhs ) e quindi funziona anche per qualsiasi aspettativa in :

argmaxθL(θ|x)π(θ)=argmaxθlogL(θ|x)+logπ(θ)
logL(θ|x)=E[logL(θ|x,Z)|x,θ]E[logq(Z|x,θ)|x,θ]
θ
q(z|x,θ)=f(x,z|θ)/g(x|θ)
g(x|θ)=f(x,z|θ)/q(z|x,θ)
zZ
logg(x|θ)=logf(x,z|θ)logq(z|x,θ)=E[logf(x,Z|θ)logq(Z|x,θ)|x]
per qualsiasi distribuzione condizionale di dato , ad esempio . Pertanto, se massimizziamo in con la soluzione abbiamo mentre dagli argomenti standard di EM. Pertanto, ZX=xq(z|x,θ)θ
E[logL(θ|x,Z)|x,θ]+logπ(θ)
θ1
E[logL(θ1|x,Z)|x,θ]+logπ(θ1)E[logL(θ|x,Z)|x,θ]+logπ(θ)
E[logq(Z|x,θ)|x,θ]E[logq(Z|x,θ1)|x,θ]
E[logL(θ1|x,Z)|x,θ]+logπ(θ1)E[logL(θ|x,Z)|x,θ]+logπ(θ)
e usando come passo E il target porta ad un aumento del posteriore ad ogni M step, nel senso che l'algoritmo EM modificato converge in una MAP locale.
E[logL(θ|x,Z)|x,θ]+logπ(θ)

Grazie per la risposta. Ha rappresentano il pdf di ? Potresti per favore perché ci sono 2 aspettative con Sottratto nell'equazione menzionata nella seconda riga? q()ZE[logq(.)]
SKM,

Ho aggiunto alcune spiegazioni, ma dovresti controllare in un libro di testo la derivazione dell'algoritmo EM poiché questo è materiale standard.
Xi'an,

1

Non credo che mostrare un log-posteriore crescente monotonico (o la probabilità del log per MLE) sia sufficiente per mostrare la convergenza al punto stazionario della stima MAP (o MLE). Ad esempio, gli incrementi possono diventare arbitrariamente piccoli. Nel famoso articolo di Wu 1983 , una condizione sufficiente per convergere a punto stazionario di EM è la differenziabilità in entrambi gli argomenti della funzione limite inferiore.

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.