Risposte:
(È in qualche modo una sorpresa leggere le risposte precedenti, che si concentrano sulla potenziale improprietà del posteriore quando il priore è corretto, poiché, per quanto posso dire, la domanda è se il posteriore debba essere o meno adeguato ( cioè integrabile in uno) per essere un vero e proprio (cioè accettabile per l'inferenza bayesiana).)
Nelle statistiche bayesiane, la distribuzione posteriore deve essere una distribuzione di probabilità, da cui si possono derivare momenti come la media posteriore e dichiarazioni di probabilità come la copertura di un credibile regione, . Se il posteriore non può essere normalizzato in una densità di probabilità e l'inferenza bayesiana semplicemente non può essere condotta. Il posteriore semplicemente non esiste in questi casi.
In realtà, (1) deve valere per tutte le nello spazio del campione e non solo per la osservata perché, altrimenti, la selezione del precedente dipende dai dati . Ciò significa che i priori come il precedente di Haldane, , sulla probabilità di una variabile binomiale o binomiale negativa X non possono essere usati, poiché il posteriore non è definito per x = 0 .
Conosco un'eccezione quando si possono considerare "posteriori impropri": si trova in "The Art of Data Augmentation" di David van Dyk e Xiao-Li Meng. La misura impropria è su un cosiddetto parametro di lavoro tale che l'osservazione sia prodotta dal marginale di una distribuzione aumentata e van Dyk e Meng hanno inserito una errata su questo parametro funzionante per accelerare la simulazione di (che rimane ben definita come densità di probabilità) da MCMC.f ( x | θ ) = ∫ T ( x aug ) = x f ( x aug | θ , α ) p ( α ) α π ( θ | x )
In un'altra prospettiva, in qualche modo correlata alla risposta di eretmochelys , ovvero una prospettiva della teoria delle decisioni bayesiane , un'impostazione in cui si verifica (1) potrebbe ancora essere accettabile se portasse a decisioni ottimali. Vale a dire, se è una funzione di perdita che valuta l'impatto dell'utilizzo della decisione , una decisione ottimale bayesiana sotto il precedente è data da e tutto ciò che conta è che questo integrale non sia ovunque (in ) infinito. Se (1) è valido o meno per la derivazione diδ δ ⋆ ( x )
La distribuzione posteriore non deve essere corretta anche se il precedente è corretto. Ad esempio, supponiamo che abbia un Gamma precedente con forma 0.25 (che è corretta) e modelliamo il nostro dato come tratto da una distribuzione gaussiana con zero medio e varianza . Supponiamo che sia osservato come zero. Quindi la probabilità è proporzionale a , il che rende impropria la distribuzione posteriore per , poiché è proporzionale a . Questo problema sorge a causa della natura stravagante delle variabili continue.x v x p ( xv - 0,5 v v - 1,25 e - v
Definendo il set noi have L'ultimo integrale sarà uguale a se la misura di Lebesgue di è positiva. Ma questo è impossibile, perché questo integrale ti dà una probabilità (un numero reale tra e ). Quindi, ne consegue che la misura di Lebesgue di è uguale a e, ovviamente, segue anche cheP r ( X ∈ Dati fasulli ) = ∫ Dati fasulli ∫ f ( x ∣ θ )
In parole: la precedente probabilità predittiva di quei valori campione che rendono improprio il posteriore è uguale a zero.
Morale della storia: attenzione ai set nulli, possono mordere, per quanto improbabile possa essere.
PS Come sottolineato dal Prof. Robert nei commenti, questo ragionamento esplode se il priore è improprio.
Qualsiasi "distribuzione" deve essere sommata (o integrata) a 1. Posso pensare ad alcuni esempi in cui si potrebbe lavorare con distribuzioni non normalizzate, ma mi sento a disagio a chiamare qualsiasi cosa che emargina a tutt'altro che 1 una "distribuzione".