Con U n i f(0,1)≡Beta(α0=1,β0=1) e probabilità
B i n o m (n,θ) mostra X successi in n prove, la distribuzione posteriore è B e t a ( αn= 1 + x ,βn= 1 + n - x ) .
(Questo è facilmente visibile moltiplicando i kernel del precedente e la probabilità di ottenere il kernel del posteriore.)
Quindi la media posteriore
è μn= αnαn+ β= x + 1n + 2.
In un contesto bayesiano, usare semplicemente la media posteriore della terminologia potrebbe essere la cosa migliore. (La mediana della distribuzione posteriore e il massimo del suo PDF sono stati usati anche per riassumere le informazioni posteriori.)
Note: (1) Qui stai usando B e t a (1,1) come distribuzione precedente non informativa. Per validi motivi teorici, alcuni statistici bayesiani preferiscono usare il Jeffreys precedenti B e t a ( 12, 12)come precedente non informativo. Quindi la media posteriore èμn= x + .5n + 1.
(2) Nel fare gli intervalli di confidenza frequentista Agresti e Coull hanno suggerito "aggiungendo due successi e due fallimenti" a campione al fine di ottenere un intervallo di confidenza sulla base della stima di p = x + 2p^= x + 2n + 4,che ha probabilità di copertura più accurati (rispetto alla tradizionale Wald intervallo utilizzando p =xp^= xn) .David Moore lo ha definito unostimatorepiù quattroin alcuni dei suoi testi statistici elementari ampiamente utilizzati, e la terminologia è stata usata da altri. Non sarei sorpreso di vedere il tuo stimatore chiamato "più due" e Jeffries "chiamato" più uno ".
(3) Tutti questi stimatori hanno l'effetto di "ridurre lo stimatore verso 1/2" e quindi sono stati chiamati "stimatori di contrazione" (un termine che è molto più ampiamente usato, in particolare nell'inferenza di James-Stein). Vedi risposta (+1) di @Taylor.