Scusa se non sono chiaro sul mio blog !
Nota: ho fornito alcune informazioni sulla scelta del modello bayesiano e sul paradosso Jeffreys-Lindley in questa altra risposta su Cross convalidata.
Il paradosso di Jeffreys-Lindley è legato alla scelta del modello bayesiano in quanto la probabilità marginale
diventa insignificante quando è una misura definita (cioè una misura con massa infinita) piuttosto che una misura di probabilità. La ragione di questa difficoltà è che la massa infinita rende e indistinguibili per qualsiasi costante positiva . In particolare, il fattore Bayes non può essere usato e non dovrebbe essere usato quando un modello è dotato di un precedente "piatto".
m ( x ) = ∫π( θ ) f( x | θ )d θ
σ π c π cπσπcπc
Il paradosso originale di Jeffreys-Lindley usa la normale distribuzione come esempio. Quando si confrontano i modelli e il fattore Bayes è
È ben definito quando è un precedente appropriato ma se prendi un precedente normale su e lascia andare all'infinito, il denominatore va a zero per qualsiasi valore di diverso da zero e qualsiasi valore di . (A meno che ex ∼ N ( θ , 1 ) B 12 = exp
x∼N(0,1)
x∼N(θ,1)
πN(0,τ2)θτ ˉ x nnτnπ(θ)=ccB12B12=expB12=exp{−n(x¯n)2/2}∫+∞−∞exp{−n(x¯n−θ)2/2}π(θ)dθ
πN(0,τ2)θτx¯nnτnsono correlati, ma questo diventa più complicato!) Se invece usi direttamente dove è una costante necessariamente arbitraria, il fattore Bayes sarà
quindi direttamente dipendente da .
π(θ)=c
cB12 cB12=exp{−n(x¯n)2/2}c∫+∞−∞exp{−n(x¯n−θ)2/2}dθ=exp{−n(x¯n)2/2}c2π/n−−−−√
c
Ora, se i tuoi priori sono informativi (e quindi corretti), non c'è motivo per il paradosso Jeffreys-Lindley. Con un numero sufficiente di osservazioni, il fattore Bayes selezionerà coerentemente il modello che ha generato i dati. (O più precisamente il modello all'interno della raccolta di modelli considerati per la scelta del modello più vicino al modello "vero" che ha generato i dati.)