Dal punto di vista della probabilità bayesiana, perché un intervallo di confidenza al 95% non contiene il parametro vero con una probabilità del 95%?


14

Dalla pagina di Wikipedia sugli intervalli di confidenza :

... se gli intervalli di confidenza sono costruiti attraverso molte analisi dei dati separate di esperimenti ripetuti (e possibilmente diversi), la proporzione di tali intervalli che contengono il valore reale del parametro corrisponderà al livello di confidenza ...

E dalla stessa pagina:

Un intervallo di confidenza non prevede che il vero valore del parametro abbia una particolare probabilità di trovarsi nell'intervallo di confidenza dati i dati effettivamente ottenuti.

Se ho capito bene, quest'ultima affermazione è fatta tenendo presente l'interpretazione frequente della probabilità. Tuttavia, dal punto di vista della probabilità bayesiana, perché un intervallo di confidenza al 95% non contiene il parametro vero con una probabilità del 95%? E in caso contrario, cosa c'è di sbagliato nel seguente ragionamento?

Se ho un processo che conosco produce una risposta corretta il 95% delle volte, la probabilità che la risposta successiva sia corretta è 0,95 (dato che non ho ulteriori informazioni riguardo al processo). Allo stesso modo se qualcuno mi mostra un intervallo di confidenza creato da un processo che conterrà il vero parametro il 95% delle volte, non dovrei avere ragione nel dire che contiene il vero parametro con probabilità 0,95, dato quello che so?

Questa domanda è simile, ma non uguale a, Perché un IC al 95% non implica una probabilità del 95% di contenere la media? Le risposte a questa domanda si sono concentrate sul perché un IC al 95% non implica una probabilità del 95% di contenere la media da una prospettiva frequentista. La mia domanda è la stessa, ma dal punto di vista della probabilità bayesiana.


Un modo di pensare a questo è il 95% di IC è una "media di lungo periodo". Ora ci sono molti modi per dividere i casi di "breve periodo" in modo da ottenere una copertura abbastanza arbitraria, ma quando viene calcolata la media, si ottiene complessivamente il 95%. Un altro modo più astratto è generare per tale che . C'è un numero infinito di modi in cui puoi farlo. Qui indica se l'IC creato con il suo set di dati contiene o meno il parametro e è la probabilità di copertura per questo caso. i = 1 , 2 , i = 1 p i = 0,95 x i p ixiBernoulli(pi)i=1,2,i=1pi=0.95xipi
probabilityislogic

Risposte:


11

Aggiornamento : con il senno di poi alcuni anni, ho scritto un trattamento più conciso dello stesso materiale essenzialmente in risposta a una domanda simile.


Come costruire una regione di fiducia

Cominciamo con un metodo generale per costruire regioni di fiducia. Può essere applicato a un singolo parametro, per produrre un intervallo di confidenza o una serie di intervalli; e può essere applicato a due o più parametri, per produrre regioni di confidenza dimensionale più elevate.

Affermiamo che le statistiche osservate provengono da una distribuzione con parametri , vale a dire la distribuzione campionaria su possibili statistiche , e cerchiamo una regione di confidenza per nell'insieme di possibili valori . Definire una regione a più alta densità (HDR): -HDR di un PDF è il sottoinsieme più piccolo del suo dominio che supporta la probabilità . Indica -HDR di come , per qualsiasi . Quindi, la regione di confidenza perDθs(d|θ)dθΘhhhs(d|ψ)HψψΘhθ, dati , è l'insieme . Un valore tipico di sarebbe 0,95.DCD={ϕ:DHϕ}h

Un'interpretazione frequente

Dalla definizione precedente di una regione di confidenza segue con . Ora immaginate un grande insieme di ( immaginari ) osservazioni , scattate in circostanze simili a . cioè Sono campioni da . Poiché supporta la massa di probabilità del PDF , per tutti . Pertanto, la frazione di per cui è

dHψψCd
Cd={ϕ:dHϕ}{ D i } D s ( d | θ ) H θ h s ( d | θ ) P ( D iH θ{Di}Ds(d|θ)Hθhs(d|θ)P(DiHθ)=hi{Di}DiHθh. E così, usando l'equivalenza sopra, la frazione di per la quale è anche .{Di}θCDih

Questo, quindi, è ciò che il frequentista afferma per la regione di confidenza per equivale a:hθ

Prendere un gran numero di osservazioni immaginari dalla distribuzione campionaria che ha dato origine alla statistica osservata . Quindi, trova all'interno di una frazione delle regioni analoghe ma immaginarie di fiducia .{Di}s(d|θ)Dθh{CDi}

La regione di confidenza quindi non fa alcuna pretesa sulla probabilità che si trovi da qualche parte! Il motivo è semplicemente che non c'è nulla nella fomulazione che ci permetta di parlare di una distribuzione di probabilità su . L'interpretazione è solo una sovrastruttura elaborata, che non migliora la base. La base è solo e , dove non appare come quantità distribuita e non ci sono informazioni che possiamo usare per risolverlo. Esistono sostanzialmente due modi per ottenere una distribuzione su :CDθθs(d|θ)Dθθ

  1. Assegna una distribuzione direttamente dalle informazioni a portata di mano: .p(θ|I)
  2. Correlare con un'altra quantità distribuita: .θp(θ|I)=p(θx|I)dx=p(θ|xI)p(x|I)dx

In entrambi i casi, deve apparire a sinistra da qualche parte. I frequentatori non possono usare nessuno dei due metodi, poiché entrambi richiedono un precedente eretico.θ

Una vista bayesiana

Il più un bayesiano può fare della regione di confidenza , dato senza qualificazione, è semplicemente l'interpretazione diretta: che è l'insieme di per il quale cade nella -HDR della distribuzione campionaria . Non ci dice necessariamente molto su , ed ecco perché.hCDϕDhHϕs(d|ϕ)θ

La probabilità che , dati e le informazioni di base , sia: Nota che, a differenza dell'interpretazione frequentista, abbiamo immediatamente richiesto una distribuzione su . Le informazioni di base ci dicono, come prima, che la distribuzione di campionamento è : θCDDI

P(θCD|DI)=CDp(θ|DI)dθ=CDp(D|θI)p(θ|I)p(D|I)dθ
θIs(d|θ)
P(θCD|DI)=CDs(D|θ)p(θ|I)p(D|I)dθ=CDs(D|θ)p(θ|I)dθp(D|I)i.e.P(θCD|DI)=CDs(D|θ)p(θ|I)dθs(D|θ)p(θ|I)dθ
hhCDθhh Ora questa espressione non valuta in generale , vale a dire, la regione di confidenza non contiene sempre con probabilità . In effetti può essere nettamente diverso da . Ci sono, tuttavia, molte situazioni comuni in cui si fa valutare dahhCDθhhh, motivo per cui le regioni di fiducia sono spesso coerenti con le nostre intuizioni probabilistiche.

Ad esempio, supponiamo che il precedente PDF congiunto di e sia simmetrico in quel . (Chiaramente questo implica un presupposto che il PDF spazia sullo stesso dominio in e .) Quindi, se il precedente è , abbiamo . Quindi Dalla definizione di un HDR lo sappiamo per qualsiasidθpd,θ(d,θ|I)=pd,θ(θ,d|I)dθp(θ|I)=f(θ)s(D|θ)p(θ|I)=s(D|θ)f(θ)=s(θ|D)f(D)

P(θCD|DI)=CDs(θ|D)dθs(θ|D)dθi.e.P(θCD|DI)=CDs(θ|D)dθ
ψΘ
Hψs(d|ψ)dd=hand therefore thatHDs(d|D)dd=hor equivalentlyHDs(θ|D)dθ=h
Pertanto, dato che , implica . L'antecedente soddisfa Applicazione dell'equivalenza nella parte superiore: Pertanto, l'area di confidenza contienes(d|θ)f(θ)=s(θ|d)f(d)CD=HDP(θCD|DI)=h
CD=HDψ[ψCDψHD]
CD=HDψ[DHψψHD]
CDθcon probabilità se per tutti i possibili valori di , -HDR di contiene se e solo se -HDR di contiene .hψθhs(d|ψ)Dhs(d|D)ψ

Ora la relazione simmetrica è soddisfatta per tutti quando per tutti che abbraccia il supporto di e . Possiamo quindi formare il seguente argomento:DHψψHDψs(ψ+δ|ψ)=s(Dδ|D)δs(d|D)s(d|ψ)

  1. s(d|θ)f(θ)=s(θ|d)f(d) (premessa)
  2. ψδ[s(ψ+δ|ψ)=s(Dδ|D)] (premessa)
  3. ψδ[s(ψ+δ|ψ)=s(Dδ|D)]ψ[DHψψHD]
  4. ψ[DHψψHD]
  5. ψ[DHψψHD]CD=HD
  6. CD=HD
  7. [s(d|θ)f(θ)=s(θ|d)f(d)CD=HD]P(θCD|DI)=h
  8. P(θCD|DI)=h

Appliciamo l'argomento a un intervallo di confidenza sulla media di una distribuzione normale 1-D , data una media di esempio da misurazioni. Abbiamo e , in modo che la distribuzione di campionamento sia Supponi anche che non sappiamo nulla di prima di prendere i dati (tranne che è una posizione parametro) e quindi assegnare un precedente uniforme: . Chiaramente ora abbiamo , quindi la prima premessa è soddisfatta. Permettere(μ,σ)x¯nθ=μd=x¯

s(d|θ)=nσ2πen2σ2(dθ)2
θf(θ)=ks(d|θ)f(θ)=s(θ|d)f(d)s(d|θ)=g((dθ)2) . (cioè può essere scritto in quel formato.) Quindi al termine della seconda premessa. Essendo entrambe le premesse vere, l'argomento in otto punti ci porta a concludere che la probabilità che risieda nell'intervallo di confidenza è !
s(ψ+δ|ψ)=g((ψ+δψ)2)=g(δ2)ands(Dδ|D)=g((DδD)2)=g(δ2)so thatψδ[s(ψ+δ|ψ)=s(Dδ|D)]
θCDh

Abbiamo quindi un'ironia divertente:

  1. Il frequentatore che assegna l' intervallo di confidenza non può dire che , non importa quanto innocentemente uniforme sia prima di incorporare i dati.hP(θCD)=hθ
  2. Il bayesiano che non assegnerebbe un intervallo di confidenza in quel modo sa comunque che .hP(θCD|DI)=h

Osservazioni finali

Abbiamo identificato le condizioni (ovvero le due premesse) in base alle quali la regione di confidenza produce effettivamente probabilità che . Un frequentatore si fermerà alla prima premessa, perché comporta un precedente su , e questo tipo di patto è inevitabile sulla strada per una probabilità. Ma per un bayesiano è accettabile --- no, essenziale. Queste condizioni sono sufficienti ma non necessarie, quindi ci sono molte altre circostanze in cui la Bayesiana uguale a . Allo stesso modo, ci sono molte circostanze in cui , specialmente quando le informazioni precedenti sono significative.hhθCDθP(θCD|DI)hP(θCD|DI)h

Abbiamo applicato un'analisi bayesiana proprio come un costante bayesiana Sarebbe, date le informazioni a portata di mano , comprese le statistiche . Ma un bayesiano, se possibile, applicherà i suoi metodi alle misure grezze invece --- a , piuttosto che a . Spesso, la compressione dei dati grezzi in statistiche riassuntive distrugge le informazioni nei dati; e quindi le statistiche riassuntive non sono in grado di parlare in modo eloquente dei dati originali sui parametri .D{xi}x¯Dθ


Sarebbe corretto dire che un bayesiano è impegnato a tenere conto di tutte le informazioni disponibili, mentre l'interpretazione data nella domanda ha ignorato D in un certo senso?
qbolec,

È una buona immagine mentale per illustrare la situazione: immagina un'immagine in scala di grigi, dove l'intensità del pixel x, y è la ppb congiunta del parametro reale essendo y e la stat osservata è x. In ogni riga y, contrassegniamo i pixel che hanno il 95% di massa della riga. Per ogni stat osservato x, definiamo CI (x) come l'insieme di righe che hanno contrassegnato i pixel nella colonna x. Ora, se scegliamo x, y in modo casuale, allora CI (x) conterrà y iff x, y è stato contrassegnato e la massa di pixel contrassegnati è del 95% per ogni y. Quindi, i frequentisti affermano che mantenendo y fisso, la probabilità è del 95%, dice OP, che non aggiustarlo y dà anche il 95%, e i bayesiani riparano y e non lo sanno
qbolec

@qbolec È corretto affermare che nel metodo bayesiano non si possono ignorare arbitrariamente alcune informazioni tenendo conto del resto. I frequentatori affermano che per tutti l'aspettativa di (come numero intero booleano) sotto la distribuzione di campionamento è 0,95. Il frequentista 0,95 non è una probabilità ma un'aspettativa. yyCI(x)prob(x|y,I)
CarbonFlambe - Ripristina Monica il

6

dal punto di vista della probabilità bayesiana, perché un intervallo di confidenza del 95% non contiene il parametro vero con una probabilità del 95%?

Due risposte a questa, la prima è meno utile della seconda

  1. Non ci sono intervalli di confidenza nelle statistiche bayesiane, quindi la domanda non riguarda.

  2. Nelle statistiche bayesiane vi sono tuttavia intervalli credibili , che svolgono un ruolo simile agli intervalli di confidenza. Se consideri i priori e i posteriori nelle statistiche bayesiane quantificano la ragionevole convinzione che un parametro assume determinati valori, allora la risposta alla tua domanda è sì, un intervallo credibile del 95% rappresenta un intervallo entro il quale si ritiene che un parametro sia del 95% probabilità.

Se ho un processo che conosco produce una risposta corretta il 95% delle volte, la probabilità che la risposta successiva sia corretta è 0,95 (dato che non ho ulteriori informazioni riguardo al processo).

sì, il processo indovina una risposta giusta con una probabilità del 95%

Allo stesso modo se qualcuno mi mostra un intervallo di confidenza creato da un processo che conterrà il vero parametro il 95% delle volte, non dovrei avere ragione nel dire che contiene il vero parametro con probabilità 0,95, dato quello che so?

Proprio come il processo, l'intervallo di confidenza indovina la risposta corretta con una probabilità del 95%. Siamo tornati nel mondo delle statistiche classiche qui: prima di raccogliere i dati puoi dire che c'è una probabilità del 95% di dati raccolti in modo casuale che determina i limiti dell'intervallo di confidenza in modo tale che la media sia all'interno dei limiti.

Con il tuo processo, dopo aver ottenuto la tua risposta, non puoi dire in base a qualunque sia la tua ipotesi, che la vera risposta è la stessa della tua ipotesi con una probabilità del 95%. L'ipotesi è giusta o sbagliata.

E lo stesso del processo, nel caso dell'intervallo di confidenza, dopo aver ottenuto i dati e avere un limite inferiore e superiore effettivo, la media è all'interno di tali limiti o non lo è, vale a dire la possibilità che la media sia all'interno di questi limiti particolari è 1 o 0. (Dopo aver scremato la domanda a cui ti riferisci sembra che questa sia coperta in modo molto più dettagliato).

Come interpretare un intervallo di confidenza che ti viene dato se ti abboni a una visione bayesiana della probabilità.

Ci sono un paio di modi per vederlo

  1. Tecnicamente, l'intervallo di confidenza non è stato prodotto usando un teorema precedente e di Bayes, quindi se si avesse una precedente convinzione sul parametro in questione, non sarebbe possibile interpretare l'intervallo di confidenza nel quadro bayesiano.

  2. Un'altra interpretazione ampiamente utilizzata e rispettata degli intervalli di confidenza è che forniscono un "intervallo plausibile" di valori per il parametro (vedere, ad esempio, qui ). Questo de-enfatizza l'interpretazione degli "esperimenti ripetuti".

Inoltre, in determinate circostanze, in particolare quando il precedente non è informativo (non ti dice nulla, ad esempio piatto), gli intervalli di confidenza possono produrre esattamente lo stesso intervallo di un intervallo credibile. In queste circostanze, come bayesiano si potrebbe sostenere che se avessi preso la via bayesiana avresti ottenuto esattamente gli stessi risultati e potresti interpretare l'intervallo di confidenza allo stesso modo di un intervallo credibile.


ma sicuramente esistono degli intervalli di confidenza anche se sottoscrivo una visione bayesiana della probabilità, non spariranno, giusto? :) La situazione di cui mi chiedevo era come interpretare un intervallo di confidenza che ti veniva dato se ti iscrivi a una visione bayesiana della probabilità.
Rasmus Bååth

Il problema è che gli intervalli di confidenza non sono prodotti usando una metodologia bayesiana. Non inizi con un precedente. Modificherò il post per aggiungere qualcosa che potrebbe aiutare.
TooTone

2

Ti faccio un esempio estremo in cui sono diversi.

Supponiamo di creare il mio intervallo di confidenza al 95% per un parametro come segue. Inizia campionando i dati. Quindi genera un numero casuale compreso tra e . Chiama questo numero . Se è inferiore a restituisci l'intervallo . Altrimenti restituisce l'intervallo "null".θ01uu0.95(,)

Ora oltre le ripetizioni continue, il 95% degli EC sarà "tutti i numeri" e quindi conterrà il valore reale. L'altro 5% non contiene valori, quindi non ha copertura. Nel complesso, si tratta di un IC al 95% inutile, ma tecnicamente corretto.

L'intervallo credibile bayesiano sarà del 100% o 0%. Non il 95%.


Quindi è corretto affermare che prima di vedere un intervallo di confidenza c'è una probabilità del 95% che conterrà il parametro vero, ma per ogni dato intervallo di confidenza la probabilità che copra il parametro vero dipende dai dati (e dal nostro precedente)? Ad essere sincero, quello con cui sto davvero lottando è come suonano gli intervalli di fiducia inutili (intervalli credibili che mi piacciono d'altra parte) e il fatto che non dovrò mai insegnarli ai nostri studenti la prossima settimana ...: /
Rasmus Bååth,

Questa domanda ha alcuni esempi, oltre a una carta molto buona confronto tra i due approcci
probabilityislogic

1

" Dal punto di vista della probabilità bayesiana, perché un intervallo di confidenza al 95% non contiene il parametro vero con una probabilità del 95%? "

In Bayesian Statistics il parametro non è un valore sconosciuto, è una distribuzione. Non esiste alcun intervallo contenente il "valore reale", per un punto di vista bayesiano non ha nemmeno senso. Il parametro è una variabile casuale, puoi conoscere perfettamente la probabilità che quel valore sia compreso tra x_inf e x_max se conosci la distribuzione. È solo una diversa mentalità sui parametri, di solito i bayesiani hanno usato il valore medio o medio della distribuzione del parametro come "stima". Non esiste un intervallo di confidenza nelle statistiche bayesiane, qualcosa di simile si chiama intervallo di credibilità .

Ora dal punto di vista del frequenzialista, il parametro è un "Valore fisso", non una variabile casuale, puoi davvero ottenere un intervallo di probabilità (uno al 95%)? Ricorda che è un valore fisso, non una variabile casuale con una distribuzione nota. Ecco perché hai superato il testo : "Un intervallo di confidenza non prevede che il valore reale del parametro abbia una particolare probabilità di trovarsi nell'intervallo di confidenza dati i dati effettivamente ottenuti."

L'idea di ripetere l'esperienza ancora e ancora ... non è il ragionamento bayesiano, ma è frequenzialista. Immagina un vero esperimento dal vivo che puoi fare solo una volta nella vita, puoi / dovresti costruire quell'intervallo di confidenza (dal punto di vista classico) ?.

Ma ... nella vita reale i risultati potrebbero avvicinarsi (Bayesian vs Frequencist), forse è per questo che potrebbe essere fonte di confusione.

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.