Ciò è evidente dall'ispezione della quantità che LASSO sta ottimizzando.
Prendi il precedente per come Laplace indipendente con zero medio e qualche scala . τβiτ
Quindi .p(β|τ)∝e−12τ∑i|βi|
Il modello per i dati è la solita ipotesi di regressione .y∼iidN(Xβ,σ2)
f(y|X,β,σ2)∝(σ2)−n/2exp(−12σ2(y−Xβ)T(y−Xβ))
Ora meno due volte il tronco del posteriore è della forma
1k(σ2,τ,n,p)+ 1σ2(y−Xβ)T(y−Xβ)+1τ∑i|βi|
Let e otteniamo -posterior di- 2 logλ=σ2/τ−2log
1k(σ2,λ,n,p)+ 1σ2[(y−Xβ)T(y−Xβ)+λ∑i|βi|]
Lo stimatore MAP per minimizza quanto sopra, che minimizzaβ
S=(y−Xβ)T(y−Xβ)+λ∑i|βi|
Quindi lo stimatore MAP per è LASSO.β
(Qui ho trattato come riparato efficacemente ma puoi fare altre cose con esso e far uscire ancora LASSO.)σ2
Modifica: ecco cosa ottengo componendo una risposta off line; Non ho visto una buona risposta già pubblicata da Andrew. Il mio non fa davvero nulla che il suo non faccia già. Lascio il mio per ora perché fornisce un paio di dettagli in più sullo sviluppo in termini di .β