Fare un bayesiano prima di un risultato frequentista


13

Come si può fare per trasformare un risultato frequentista in un precedente bayesiano?

Considera il seguente scenario piuttosto generico: un esperimento è stato condotto in passato e un risultato su alcuni parametri stato misurato. L'analisi è stata fatta con una metodologia frequentista. Nei risultati viene indicato un intervallo di confidenza per ϕ .ϕϕ

Sto conducendo un nuovo esperimento in cui voglio misurare alcuni altri parametri, diciamo sia che ϕ . Il mio esperimento è diverso dal precedente studio --- non viene eseguito con la stessa metodologia. Vorrei fare un'analisi bayesiana e quindi dovrò collocare i priori su θ e ϕ .θϕθϕ

Non sono state eseguite misurazioni precedenti di , quindi inserisco un non informativo (diciamo la sua uniforme) prima di esso. θ

Come accennato, esiste un risultato precedente per , dato come intervallo di confidenza. Per utilizzare quel risultato nella mia analisi attuale, dovrei tradurre il precedente risultato frequentista in un precedente informativo per la mia analisi. ϕ

Un'opzione che non è disponibile in questo scenario inventato è quella di ripetere l'analisi precedente che ha portato alla misurazione in modo bayesiano. Se potessi farlo, ϕ avrei un posteriore dell'esperimento precedente che avrei usato come mio precedente, e non ci sarebbero problemi.ϕ ϕ

Come devo tradurre l'IC frequentista in una distribuzione precedente bayesiana per la mia analisi? O in altre parole, come potrei tradurre il loro risultato più frequente su in un posteriore su ϕ che userei come precedente nella mia analisi?ϕϕ

Eventuali approfondimenti o riferimenti che trattano questo tipo di problema sono i benvenuti.


Distribuzione anteriore o posteriore?
Tim

modificato per maggiore chiarezza, meglio?
bill_e

Puoi avere un'uniforme da -infinito a + infinito
mdewey,

Non sono sicuro di cosa abbia a che fare con la meta-analisi. Puoi chiarire
mdewey,

3
Stai cercando abbinamenti priori, stile Welch e Peers. Dai un'occhiata a questa recensione: projecteuclid.org/euclid.lnms/1215091929
Zen

Risposte:


3

Versione breve: prendi un gaussiano centrato alla stima precedente, con std. dev. uguale all'IC.

Versione lunga: Let essere il vero valore del parametro, e lasciare che φ la stima che si ha. Assumi un'uniforme a priori prima di P ( ϕ ) = c t . Volete sapere la distribuzione di φ 0 dato che una stima φ è già stato ottenuto:ϕ0ϕ^P(ϕ)=ctϕ0ϕ^

Ora l'unica dipendenza daφ0è il termineP( φ |Phi;0), il resto è una costante di normalizzazione. Supponendo che il φ è uno stimatore di massima verosimiglianza (o qualche altro stimatore consistente), possiamo utilizzare i seguenti fatti:

P(ϕ0|ϕ^)=P(ϕ^|ϕ0)P(ϕ0)P(ϕ^)=P(ϕ^|ϕ0)ctP(ϕ^)
ϕ0P(ϕ^|ϕ0)ϕ^
  1. All'aumentare del numero di osservazioni, l'MLE è asintoticamente gaussiana,
  2. È asintoticamente imparziale (centrato sul valore reale ),ϕ0
  3. Fluttua intorno a con una varianza uguale all'informazione di Fisher inversa delle osservazioni precedenti, ed è quello che avrei usato come CI (al quadrato).ϕ0

Un altro modo per dirlo: il posteriore bayesiano e la distribuzione di uno stimatore coerente ed efficiente diventano asintoticamente uguali.


Dovrei aggiungere che questa soluzione è per il 68% di CI, che è 1 sigma. Se i tuoi intervalli di confidenza sono del 95% sei a due sigmi, quindi dovresti dividere l'IC per 2, se sono al 99,7%, quindi sono 3 sigmi, quindi dovresti dividere per 3. en.wikipedia.org/wiki/ 68% E2% 80% 9395% E2% 80% 9399,7_rule
Alex Monras

Dovevo commentare esattamente cosa c'è nel tuo commento :-) Forse dovresti aggiungerlo alla tua risposta. Vorrei ...
Rolazaro Azeveires il

1

ttσ2S2(np)/σ2α1/σ2 viene usato).

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.