Risposte:
Usando la definizione in Bayesian Data Analysis (3a edizione) , se è una classe di distribuzioni di campionamento e è una classe di distribuzioni precedenti per , quindi il class è coniugato per se
Se è una classe di distribuzioni campionarie e è una classe di distribuzioni precedenti per condizionale su , allora la classe è coniugato condizionale per if
I priori condizionatamente coniugati sono utili nella costruzione di un campionatore di Gibbs poiché l'intero condizionale sarà una famiglia nota.
Ho cercato una versione elettronica di Bayesian Data Analysis (3a edizione) e non sono riuscito a trovare un riferimento al semi-coniugato precedente. Immagino che sia sinonimo di coniugato condizionale, ma se fornisci un riferimento al suo uso nel libro, dovrei essere in grado di fornire una definizione.
Vorrei usare la multivariata normale come esempio.
Ricordiamo che la probabilità è data da
Al fine di trovare un precedente a questa probabilità, possiamo scegliere
Ti assicuro di NON preoccuparti per per ora; sono semplicemente parametri della distribuzione precedente.
Ciò che è importante è, tuttavia, che questo non è coniugato alla probabilità. Per capire perché, vorrei citare un riferimento che ho trovato online.
notare che e Σ appaiono insieme in modo non fattorizzato nella probabilità; quindi saranno anche accoppiati insieme nella parte posteriore
Il riferimento è "Apprendimento automatico: una prospettiva probabilistica" di Kevin P. Murphy. Ecco il Link . È possibile trovare la citazione nella Sezione 4.6 (Inferimento dei parametri di un MVN) nella parte superiore della pagina 135.
Per continuare la citazione,
Il precedente sopra è talvolta chiamato semi-coniugato o coniugato condizionatamente , poiché entrambi i condizionali, e p ( Σ | μ ) , sono coniugati individualmente. Per creare un precedente coniugato completo , è necessario utilizzare un precedente in cui μ e Σ dipendono l'uno dall'altro. Useremo una distribuzione congiunta del modulo
L'idea qui è che la prima distribuzione precedente
presuppone che e Σ siano separabili (o indipendenti in un certo senso). Tuttavia, osserviamo che nella funzione di verosimiglianza, μ e Σ non possono essere scomposti separatamente, il che implica che non saranno separabili nella parte posteriore (Richiamo, ( Posteriore ) ∼ ( Precedente ) ( Probabilità ) ). Ciò dimostra che il posteriore "non separabile" e "separabile" prima dell'inizio non sono coniugati. D'altra parte, riscrivendo
in modo tale che e Σ dipendano l'uno dall'altro (attraverso p ( μ | Σ ) ), si otterrà un precedente coniugato, che viene chiamato come semi-coniugato precedente . Speriamo che questo risponda alla tua domanda.
ps : Un altro riferimento davvero utile che ho usato è "Un primo corso in metodi statistici bayesiani" di Peter D. Hoff. Ecco un link al libro. Puoi trovare contenuti pertinenti nella Sezione 7 a partire da pagina 105, e ha un'ottima spiegazione (e intuizione) sulla distribuzione normale a singola variabile nella Sezione 5 a partire da pagina 67, che sarà rinforzata di nuovo nella Sezione 7 quando si occuperà di MVN.