Quando dovrei essere preoccupato per il paradosso Jeffreys-Lindley nella scelta del modello bayesiano?


12

Sto prendendo in considerazione un ampio (ma finito) spazio di modelli di varia complessità che esploro usando RJMCMC . Il precedente sul vettore dei parametri per ciascun modello è abbastanza informativo.

  1. In quali casi (se ce ne sono) dovrei essere preoccupato per il paradosso Jeffreys-Lindley che favorisce i modelli più semplici quando uno dei modelli più complessi sarebbe più adatto?

  2. Ci sono dei semplici esempi che evidenziano i problemi del paradosso nella scelta del modello bayesiano?

Ho letto un paio di articoli, ovvero il blog di Xi'an e il blog di Andrew Gelman , ma io ancora non capisco il problema.


1
Penso che ci siano troppe domande e che siano troppo distinte per ricevere una risposta efficace qui.
Jaradniemi,

Grazie per il feedback, @jaradniemi, ho rimosso la domanda "La procedura RJMCMC, che restituisce effettivamente le probabilità del modello posteriore, dovrebbe favorire gli stessi modelli della DIC?"
Jeff,

Risposte:


5

Scusa se non sono chiaro sul mio blog !

Nota: ho fornito alcune informazioni sulla scelta del modello bayesiano e sul paradosso Jeffreys-Lindley in questa altra risposta su Cross convalidata.

Il paradosso di Jeffreys-Lindley è legato alla scelta del modello bayesiano in quanto la probabilità marginale diventa insignificante quando è una misura definita (cioè una misura con massa infinita) piuttosto che una misura di probabilità. La ragione di questa difficoltà è che la massa infinita rende e indistinguibili per qualsiasi costante positiva . In particolare, il fattore Bayes non può essere usato e non dovrebbe essere usato quando un modello è dotato di un precedente "piatto".

m(x)=π(θ)f(x|θ)dθ
σ π c π cπσπcπc

Il paradosso originale di Jeffreys-Lindley usa la normale distribuzione come esempio. Quando si confrontano i modelli e il fattore Bayes è È ben definito quando è un precedente appropriato ma se prendi un precedente normale su e lascia andare all'infinito, il denominatore va a zero per qualsiasi valore di diverso da zero e qualsiasi valore di . (A meno che ex N ( θ , 1 ) B 12 = exp

xN(0,1)
xN(θ,1)
πN(0,τ2)θτ ˉ x nnτnπ(θ)=ccB12B12=exp
B12=exp{n(x¯n)2/2}+exp{n(x¯nθ)2/2}π(θ)dθ
πN(0,τ2)θτx¯nnτnsono correlati, ma questo diventa più complicato!) Se invece usi direttamente dove è una costante necessariamente arbitraria, il fattore Bayes sarà quindi direttamente dipendente da .
π(θ)=c
cB12 c
B12=exp{n(x¯n)2/2}c+exp{n(x¯nθ)2/2}dθ=exp{n(x¯n)2/2}c2π/n
c

Ora, se i tuoi priori sono informativi (e quindi corretti), non c'è motivo per il paradosso Jeffreys-Lindley. Con un numero sufficiente di osservazioni, il fattore Bayes selezionerà coerentemente il modello che ha generato i dati. (O più precisamente il modello all'interno della raccolta di modelli considerati per la scelta del modello più vicino al modello "vero" che ha generato i dati.)


2
Mille grazie per la tua risposta molto dettagliata, Xi'an! Il tuo blog è molto chiaro (ho imparato molto da esso) Sono stato solo un po 'lento a capire questo particolare problema!
Jeff,

In realtà, il mio blog funziona con ipotesi molto variabili sullo sfondo e sui prerequisiti, quindi a volte è poco chiaro e per molti lettori!
Xi'an,
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.