Quali sono le definizioni di semi coniugati e condizionale coniugati priori?


12

Quali sono le definizioni di priori semi-coniugati e di priori coniugati condizionali ? Li ho trovati nella Bayesian Data Analysis di Gelman , ma non sono riuscito a trovare le loro definizioni.

Risposte:


16

Usando la definizione in Bayesian Data Analysis (3a edizione) , se F è una classe di distribuzioni di campionamento p(y|θ) e P è una classe di distribuzioni precedenti per θ , quindi il class P è coniugato per F se

p(θ|y)P for all p(|θ)F and p()P.

Se F è una classe di distribuzioni campionarie p(y|θ,ϕ) e P è una classe di distribuzioni precedenti per θ condizionale su ϕ , allora la classe P è coniugato condizionale per F if

p(θ|y,ϕ)P for all p(|θ,ϕ)F and p(|ϕ)P.

I priori condizionatamente coniugati sono utili nella costruzione di un campionatore di Gibbs poiché l'intero condizionale sarà una famiglia nota.

Ho cercato una versione elettronica di Bayesian Data Analysis (3a edizione) e non sono riuscito a trovare un riferimento al semi-coniugato precedente. Immagino che sia sinonimo di coniugato condizionale, ma se fornisci un riferimento al suo uso nel libro, dovrei essere in grado di fornire una definizione.


+1. Qual è l'URL per la 3a edizione di Bayesian Data Analysis?
Patrick Coulombe,

1
Grazie! Il semi-coniugato appare qui (2a edizione) books.google.com/… . A proposito, come hai ricevuto l'ebook per la terza edizione?
Tim

1
Non sono sicuro del motivo per cui dice semiconjugate prima lì poiché il precedente è completamente coniugato. Questa affermazione è stata rimossa nella terza edizione. L'ebook può essere acquistato qui: crcpress.com/product/isbn/9781439840955 .
Jaradniemi,

@jaradniemi: Nel link che ho dato, oltre a p84, si sottolinea che il precedente semiconjugate non è un precedente coniugato.
Tim

1
In a cosa si riferiscono ciascuna delle e ciascuna si riferisce alla stessa cosa?
p(θ|y,φ)P per tutti p(|θ,φ)F e p(|φ)P.
Muno,

7

Vorrei usare la multivariata normale come esempio.

Ricordiamo che la probabilità è data da

P(y1,y2,...,yn|μ,Σ)=(2π)ND2det(Σ)N2exp(12i=1N(xiμ)TΣ1(xiμ))

Al fine di trovare un precedente a questa probabilità, possiamo scegliere

P(μ,Σ)=Normale(μ;μ0,Λ0)InverseWishart(Σ;ν0,S0)

Ti assicuro di NON preoccuparti per per ora; sono semplicemente parametri della distribuzione precedente.μ0,Λ0,ν0,S0

Ciò che è importante è, tuttavia, che questo non è coniugato alla probabilità. Per capire perché, vorrei citare un riferimento che ho trovato online.

notare che e Σ appaiono insieme in modo non fattorizzato nella probabilità; quindi saranno anche accoppiati insieme nella parte posterioreμΣ

Il riferimento è "Apprendimento automatico: una prospettiva probabilistica" di Kevin P. Murphy. Ecco il Link . È possibile trovare la citazione nella Sezione 4.6 (Inferimento dei parametri di un MVN) nella parte superiore della pagina 135.

Per continuare la citazione,

Il precedente sopra è talvolta chiamato semi-coniugato o coniugato condizionatamente , poiché entrambi i condizionali, e p ( Σ | μ ) , sono coniugati individualmente. Per creare un precedente coniugato completo , è necessario utilizzare un precedente in cui μ e Σ dipendono l'uno dall'altro. Useremo una distribuzione congiunta del modulop(μ|Σ)p(Σ|μ)μΣ

p(μ,Σ)=p(Σ)p(μ|Σ)

L'idea qui è che la prima distribuzione precedente

P(μ,Σ)=Normal(μ;μ0,Λ0)InverseWishart(Σ;ν0,S0)

presuppone che e Σ siano separabili (o indipendenti in un certo senso). Tuttavia, osserviamo che nella funzione di verosimiglianza, μ e Σ non possono essere scomposti separatamente, il che implica che non saranno separabili nella parte posteriore (Richiamo, ( Posteriore ) ( Precedente ) ( Probabilità ) ). Ciò dimostra che il posteriore "non separabile" e "separabile" prima dell'inizio non sono coniugati. D'altra parte, riscrivendoμΣμΣ(Posterior)(Prior)(Likelihood)

p(μ,Σ)=p(Σ)p(μ|Σ)

in modo tale che e Σ dipendano l'uno dall'altro (attraverso p ( μ | Σ ) ), si otterrà un precedente coniugato, che viene chiamato come semi-coniugato precedente . Speriamo che questo risponda alla tua domanda.μΣp(μ|Σ)

ps : Un altro riferimento davvero utile che ho usato è "Un primo corso in metodi statistici bayesiani" di Peter D. Hoff. Ecco un link al libro. Puoi trovare contenuti pertinenti nella Sezione 7 a partire da pagina 105, e ha un'ottima spiegazione (e intuizione) sulla distribuzione normale a singola variabile nella Sezione 5 a partire da pagina 67, che sarà rinforzata di nuovo nella Sezione 7 quando si occuperà di MVN.


1

Fp(y|θ,ϕ)PθPFp(θ|y,ϕ)Pp(|θ,ϕ)Fp(θ,ϕ)=p(θ)×p(ϕ)p(θ)Pp(ϕ)P

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.