Siamo frequentisti davvero solo bayesiani impliciti / inconsapevoli?


15

Per un dato problema di inferenza, sappiamo che un approccio bayesiano di solito differisce sia nella forma che nei risultati da un approccio fequentista. I frequentatori (di solito mi includono) sottolineano spesso che i loro metodi non richiedono un precedente e quindi sono più "guidati dai dati" che dal "giudizio guidato". Ovviamente, i bayesiani possono indicare priori non informativi o, essendo pragmatici, usare solo un precedente molto diffuso.

La mia preoccupazione, specialmente dopo aver sentito un pizzico di compiacimento per la mia obiettività fequentista, è che forse i miei metodi presumibilmente "oggettivi" possono essere formulati in un quadro bayesiano, sebbene con qualche insolito modello precedente e di dati. In tal caso, sono semplicemente beato ignorante del precedente assurdo e del modello che il mio metodo frequentista implica ?

Se un bayesiano avesse sottolineato una simile formulazione, penso che la mia prima reazione sarebbe quella di dire "Beh, è ​​bello poterlo fare, ma non è così che penso al problema!". Tuttavia, a chi importa come ci penso , o come lo formula. Se la mia procedura è statisticamente / matematicamente equivalente a qualche modello bayesiano, allora sto implicitamente ( inconsapevolmente !) Eseguendo l'inferenza bayesiana.

Domanda effettiva di seguito

Questa realizzazione ha sostanzialmente minato ogni tentazione di essere compiaciuta. Tuttavia, non sono sicuro che sia vero che il paradigma bayesiano può accogliere tutte le procedure frequentiste (di nuovo, a condizione che il bayesiano scelga un precedente e una probabilità adeguati) . So che il contrario è falso.

Lo chiedo perché di recente ho pubblicato una domanda sull'inferenza condizionale, che mi ha portato al seguente documento: qui (vedi 3.9.5,3.9.6)

Sottolineano il noto risultato di Basu che può esserci più di una statistica accessoria, ponendo la domanda su quale "sottoinsieme rilevante" sia più rilevante. Ancora peggio, mostrano due esempi di dove, anche se si dispone di una statistica accessoria unica, non elimina la presenza di altri sottoinsiemi rilevanti.

Continuano a concludere che solo i metodi bayesiani (o metodi equivalenti a loro) possono evitare questo problema, consentendo inferenze condizionali senza problemi.


Potrebbe non essere il caso che le statistiche bayesiane le statistiche fequentiste - questa è la mia domanda a questo gruppo qui. Ma sembra che una scelta fondamentale tra i due paradigmi risieda meno nella filosofia che negli obiettivi: hai bisogno di un'accuratezza condizionata elevata o di un errore incondizionato basso :

  • L'elevata accuratezza condizionale sembra applicabile quando dobbiamo analizzare un'istanza singolare: vogliamo essere giusti per QUESTA particolare inferenza, nonostante il fatto che questo metodo potrebbe non essere appropriato o accurato per il prossimo set di dati (iper-condizionalità / specializzazione).

  • Un errore incondizionato basso è appropriato quando, in alcuni casi, siamo disposti a fare inferenze condizionatamente errate, purché il nostro errore a lungo termine sia ridotto al minimo o controllato. Onestamente, dopo aver scritto questo, non sono sicuro del motivo per cui vorrei questo a meno che non fossi a corto di tempo e non potessi fare un'analisi bayesiana ... hmmm.

Tendo a favorire l'inferenza fequentista basata sulla verosimiglianza, dal momento che ottengo un po 'di condizionalità (asintotica / approssimativa) dalla funzione di verosimiglianza, ma non ho bisogno di giocherellare con un precedente - tuttavia, mi sento sempre più a mio agio con l'inferenza bayesiana, soprattutto se Vedo il precedente termine di regolarizzazione per una piccola inferenza del campione.

Scusa per il lato. Qualsiasi aiuto per il mio problema principale è apprezzato.


1
una modifica al post sembra aver incasinato il link, ma non ci sono abbastanza informazioni per me per risolverlo.
Dikran Marsupial,

@DikranMarsupial grazie per averlo notato. Ho aggiunto di nuovo nel link.

Risposte:


3

Direi che i frequentisti sono spesso spesso "impliciti / inconsapevoli bayesiani", poiché in pratica spesso vogliamo eseguire ragionamenti probabilistici su cose che non hanno una frequenza a lungo termine. L'esempio classico è Null Hypothesis Statistical Testing (NHST), in cui ciò che vogliamo veramente sapere sono le probabilità relative delle ipotesi Null e Research che sono vere, ma non possiamo farlo in un ambiente frequentista poiché la verità di una particolare ipotesi non ha (non banale) frequenza di lungo periodo - è vera o no. I NHST frequentisti riescono a ovviare a questo problema sostituendo una domanda diversa, "qual è la probabilità di osservare un risultato almeno altrettanto estremo sotto l'ipotesi nulla" e poi confrontarlo con una soglia predeterminata. Tuttavia questa procedura non logicamente ci permettono di concludere qualsiasi cosa sul fatto che H0 o H1 sia vero, e così facendo stiamo effettivamente uscendo da un quadro frequentista in uno bayesiano (solitamente soggettivo), dove concludiamo che la probabilità di osservare un valore così estremo sotto H0 è così basso, che non possiamo più credere che H0 sia verosimilmente vero (nota che questo sta implicitamente assegnando una probabilità a una particolare ipotesi).

Nota che in realtà non è vero che le procedure frequentiste non hanno soggettività o priori, nei NHST la soglia sul valore p, , ha quasi lo stesso scopo dei priori e in un Analisi bayesiana. Questo è illustrato dal tanto discusso fumetto XKCD:αp(H0)p(H1)

inserisci qui la descrizione dell'immagine

α

Probabilmente gli intervalli di confidenza sono spesso usati (e interpretati come) un intervallo in cui possiamo aspettarci di vedere le osservazioni con una data probabilità, che di nuovo è un'interpretazione bayesiana.

Idealmente, gli statistici dovrebbero essere consapevoli dei benefici e degli svantaggi di entrambi gli approcci ed essere pronti a utilizzare il giusto framework per l'applicazione a portata di mano. Fondamentalmente dovremmo mirare a utilizzare l'analisi che fornisce la risposta più diretta alla domanda a cui vogliamo effettivamente rispondere (e non sostituirne tranquillamente una diversa), quindi un approccio frequentista è probabilmente il più efficace laddove siamo effettivamente interessati a frequenze a lungo termine e Metodi bayesiani dove non è così.

H0


2
p<0.05

3
Penso che funzioni come una critica alle statistiche del "rituale nullo", in cui i NHST sono usati come ricetta dal ricettario delle statistiche senza pensare / comprendere la procedura (probabilmente includendomi quando ho iniziato; o).
Dikran Marsupial,

2
Penso che un grosso problema con NHST sia meno la ritualizzata p <0,05 e più che limiti artificialmente lo spazio delle ipotesi. Voglio dire, non stanno prendendo in considerazione (come ipotesi) le numerose altre ragioni per cui sarebbe buio se non "il sole è esploso". Questo è ciò che non mi piace di NHST ... è così conservatore nei confronti del nulla. Inoltre, mi chiedo quale sarebbe il potere di questo test?

1
H0

@DikranMarsupial d'accordo! Fisher li immaginò aiutando con esperimenti agricoli, da cui proveniva il valore p. La valutazione di pesticidi e fertilizzanti non è come la valutazione di domande esistenziali non replicabili ... strumento sbagliato per il lavoro.

4

Bayesiani e Frequentisti non differiscono solo nel modo in cui ottengono inferenze, o in quanto simili o diverse queste inferenze possono essere incerte in certe scelte precedenti. La differenza principale è come interpretano la probabilità:

Probabilità bayesiana :

La probabilità bayesiana è un'interpretazione del concetto di probabilità. Contrariamente all'interpretazione della probabilità come frequenza o propensione di alcuni fenomeni, la probabilità bayesiana è una quantità assegnata per rappresentare uno stato di conoscenza o uno stato di convinzione.

Probabilità frequentista :

La probabilità o il frequentismo frequentista è un'interpretazione standard della probabilità; definisce la probabilità di un evento come limite della sua frequenza relativa in un gran numero di prove. Questa interpretazione supporta le esigenze statistiche di scienziati sperimentali e sondaggisti; le probabilità possono essere trovate (in linea di principio) da un processo oggettivo ripetibile (e sono quindi idealmente prive di opinione). Non supporta tutte le esigenze; i giocatori d'azzardo in genere richiedono stime delle probabilità senza esperimenti.

Queste due definizioni rappresentano due approcci inconciliabili per definire il concetto di probabilità (almeno finora). Quindi, ci sono differenze più fondamentali tra queste due aree rispetto al fatto che sia possibile ottenere stimatori simili o stesse conclusioni in alcuni modelli parametrici o non parametrici.


1
Non penso che siano completamente inconciliabili, una frequenza a lungo termine è una base perfettamente ragionevole per uno stato di conoscenza o credenza.
Dikran Marsupial,

@DikranMarsupial Questo è in realtà un problema aperto nella filosofia della scienza. Vedo il tuo punto, ma la riconciliazione non è così semplice.
Pollo Anabolico,

functioonun'lly

sicuramente il frequentista sarebbe funzionalmente equivalente se ci fosse anche un analogo frequentista per ogni procedura bayesiana, il che non può essere vero in quanto i bayesiani possono parlare di probabilità per cose senza frequenze a lungo termine, ma i frequentatori no.
Dikran Marsupial,

@DikranMarsupial sì, ecco perché ho chiesto se il fequentist fosse un sottoinsieme di bayesiano (ho riconosciuto che il contrario è noto per essere falso).
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.