Nel suo libro "Tutte le statistiche", il Prof. Larry Wasserman presenta il seguente esempio (11.10, pagina 188). Supponiamo di avere una densità tale che , dove è una funzione nota (non negativa, integrabile) e la costante di normalizzazione è sconosciuta .c > 0
Siamo interessati a quei casi in cui non possiamo calcolare . Ad esempio, può essere che sia un pdf su uno spazio di campionamento di dimensioni molto elevate.
È noto che esistono tecniche di simulazione che ci consentono di campionare da , anche se è sconosciuto. Quindi, il puzzle è: come possiamo stimare da un tale campione?
Prof. Wasserman descrive la seguente soluzione bayesiana: lasciate essere qualche preventiva per . La probabilità è Pertanto, il posteriore non dipende dai valori del campione . Quindi, un bayesiano non può usare le informazioni contenute nel campione per fare inferenze su .π ( c ∣ x ) ∝ c n π ( c ) x 1 , … , x n c
Il prof. Wasserman sottolinea che "i bayesiani sono schiavi della funzione di verosimiglianza. Quando la verosimiglianza va storta, così farà l'inferenza bayesiana".
La mia domanda per i miei colleghi impilatori è: riguardo a questo esempio particolare, cosa è andato storto (se non altro) con la metodologia bayesiana?
PS Come il Prof. Wasserman ha gentilmente spiegato nella sua risposta, l'esempio è dovuto a Ed George.