Quali sono i contro dell'analisi bayesiana?


45

Quali sono alcune obiezioni pratiche all'uso dei metodi statistici bayesiani in qualsiasi contesto? No, non intendo il solito carping sulla scelta del precedente. Sarò felice se questo non ottiene risposte.


5
La domanda è corretta, ma i commenti stanno arrivando fino alla linea di argomentazione e minacciando di passare dalla parte sbagliata di quella linea. Fai attenzione ... non è questo il posto per questo dibattito. Crea una chat room se vuoi farlo.
whuber

Risposte:


41

Ti darò una risposta. Quattro svantaggi in realtà. Si noti che nessuna di queste sono in realtà obiezioni che dovrebbero spingere fino all'analisi frequentista, ma ci sono svantaggi nell'adottare un quadro bayesiano:

  1. Scelta del precedente. Questo è il solito carping per un motivo, anche se nel mio caso non è il solito "i priors sono soggettivi!" ma trovare un precedente ben ragionato e in realtà rappresenta il tuo miglior tentativo di riassumere un precedente è in molti casi un grande lavoro. Un intero obiettivo della mia tesi di laurea, ad esempio, può essere riassunto come "stima dei priori".
  2. È intensivo dal punto di vista computazionale. Soprattutto per i modelli che coinvolgono molte variabili. Per un set di dati di grandi dimensioni con molte variabili stimate, può benissimo essere intensivamente computazionalmente proibitivo, specialmente in determinate circostanze in cui i dati non possono essere facilmente trasferiti su un cluster o simili. Alcuni dei modi per risolverlo, come i dati aumentati anziché MCMC, sono in qualche modo teoricamente impegnativi, almeno per me.
  3. Le distribuzioni posteriori sono in qualche modo più difficili da incorporare in una meta-analisi, a meno che non sia stata fornita una descrizione parametrica frequente della distribuzione.
  4. A seconda del diario a cui è destinata l'analisi, o l'uso di Bayes in generale, o la scelta dei priori, dà al tuo articolo un po 'più punti in cui un revisore può scavarci. Alcuni di questi sono ragionevoli obiezioni da parte dei revisori, ma alcuni derivano solo dalla natura di Bayes e da come le persone familiari in alcuni campi sono d'accordo con esso.

Nessuna di queste cose dovrebbe fermarti. In effetti, nessuna di queste cose mi ha fermato, e si spera che l'analisi bayesiana possa aiutare ad affrontare almeno il numero 4.


2
# 1, idealmente, dovrebbe essere l'analisi del primo stadio. In arte una recensione illuminata. In scienze una revisione illuminata quantitativa. I bayesiani non dovrebbero essersi scusati al riguardo. Se le freq si avvicinano ai dati come se fossero Adamo ed Eva - bene. Il primo capitolo del mio dottorato è una meta-analisi (anche se frequentista) .Woopdeedoo. È così che dovrebbe essere. # 2 La legge di Moore, ho trovato una breve discussione basata su XKCD con il gruppo locale di calcolo ad alte prestazioni può aiutare molto. # 3 Meta Analysis fa schifo in entrambi i modi. Sarei a favore di mega-analisi rolling obbligatoria, in altre parole: fornire i tuoi dati quando pubblichi.
Rosser,

7
@rosser Alcuni pensieri. # 1. Dovrebbe davvero esserci una recensione illuminata, e sì, dovrebbe essere il primo passo. Ma una corretta analisi bayesiana che controlli adeguatamente il confondimento ha bisogno di una revisione illuminata completa e quantitativa di ogni variabile da includere nel modello. Non è un compito da poco. # 2. A seconda della legge di Moore è una cattiva idea. In primo luogo, i recenti progressi sono stati realizzati principalmente nei sistemi multi-core / GPU. È necessario un software scritto per questo e problemi che derivano dall'elaborazione parallela. Un singolo modello GLM fatto con MCMC potrebbe non essere quello. Cont ...
Fomite,

6
@rosser e potrebbero esserci momenti con HPC non è necessariamente la risposta. Ad esempio, lavoro in aree in cui accordi sull'uso dei dati e simili spesso impediscono che i dati vengano archiviati su cose oltre a sistemi estremamente sicuri. Il cluster locale ... non è quello. E alla fine, la legge di Moore è buona tanto quanto il tuo budget hardware è grande. Per quanto riguarda il n. 3 e la meta-analisi, tendo a non essere d'accordo, ma oltre a ciò, rimane un problema fino al punto in cui un sistema di dati completamente aperti diventa la norma.
Fomite,

OK ho esagerato # 3. Ma quanta differenza fa il tuo precedente su OGNI PREDICTOR al risultato? srsly? Un'analisi di sensibilità mostra enormi differenze?
Rosser,

1
@Rosser Probabilmente dipende dalla natura del predittore e dalla sua relazione con l'esposizione e il risultato. Ma per fare un'analisi di sensibilità qualcuno deve avere un precedente per tutte quelle variabili. Forse lo aggiungerò come parte della mia tesi di laurea. Trovo anche la cooptazione della forza di Bayes ma l'assunzione di priori non informativi su variabili in cui "Non posso preoccuparmi di scoprire" in qualche modo problematico.
Fomite,

16

Sono un bayesiano per inclinazione, ma generalmente un frequentista in pratica. La ragione di ciò è di solito che eseguire correttamente l'intera analisi bayesiana (piuttosto che ad esempio le soluzioni MAP) per i tipi di problemi che mi interessano è complicato e intensivo dal punto di vista computazionale. Spesso è necessaria un'analisi bayesiana completa per vedere davvero i vantaggi di questo approccio rispetto agli equivalenti frequentisti.

Per me, il compromesso è fondamentalmente una scelta tra metodi bayesiani concettualmente eleganti e di facile comprensione, ma difficili da attuare in pratica e metodi frequentisti, concettualmente goffi e sottili (prova a spiegare come interpretare accuratamente un test di ipotesi o perché non esiste una probabilità del 95% che il valore reale risieda in un intervallo di confidenza del 95%), ma che si adattano bene alle soluzioni "ricettari" facilmente implementabili.

Cavalli per i corsi.


12

Da un punto di vista puramente pratico, non sono un ventilatore di metodi che richiedono grandi quantità di calcolo (Penso Gibbs campionatore e MCMC, spesso utilizzata nel quadro Bayesiano, ma questo vale anche per esempio tecniche di bootstrap in analisi frequentista). Il motivo è che qualsiasi tipo di debug (test dell'implementazione, controllo della solidità rispetto alle ipotesi, ecc. ) Richiede di per sé un sacco di simulazioni Monte Carlo e si è rapidamente in una situazione di errore computazionale. Preferisco che le tecniche di analisi sottostanti siano veloci e deterministiche, anche se sono solo approssimative.

Questa è un'obiezione puramente pratica, ovviamente: date infinite risorse di calcolo, questa obiezione scomparirebbe. E si applica solo a un sottoinsieme di metodi bayesiani. Anche questa è più una preferenza dato il mio flusso di lavoro.


1
Finora sto ascoltando 1. Legge Moore'e, 2. Duro lavoro +/- pazienza e 3. Ignoranza. Devo dire che nessuno di questi è convincente. Bayes sembra un paradigma così arrogante. Ad esempio ... perché gli studi GWAS non sono stati analizzati a-la Bayes. Avrebbero potuto impedire di eliminare il 99,999% dei dati?
Rosser,

1
Al contrario: MCMC potrebbe insegnare a uno a scrivere codice più veloce e ad imparare dal dolore di aspettare il completamento delle simulazioni. Questa è stata la mia esperienza con la modellazione: se impiegherà molto tempo a funzionare, potrei trarre vantaggio dall'imparare a rendere il codice più veloce.
Iteratore,

9

A volte esiste una soluzione "classica" semplice e naturale a un problema, nel qual caso un metodo bayesiano di fantasia (specialmente con MCMC) sarebbe eccessivo.

Inoltre, nei problemi di tipo di selezione variabile, può essere più semplice e chiaro considerare qualcosa come una probabilità penalizzata; può esistere un precedente sui modelli che fornisce un approccio bayesiano equivalente, ma come il precedente corrisponda alla prestazione finale può essere meno chiaro della relazione tra penalità e prestazione.

Infine, i metodi MCMC richiedono spesso un esperto sia per valutare la convergenza / miscelazione sia per dare un senso ai risultati.


9

Sono relativamente nuovo ai metodi bayesiani, ma una cosa che mi infastidisce è che, mentre capisco la logica dei priori (cioè la scienza è uno sforzo cumulativo, quindi per la maggior parte delle domande c'è una quantità di esperienza / pensiero precedente che dovrebbe informare il tuo interpretazione dei dati), non mi piace che l'approccio bayesiano ti costringa a spingere la soggettività all'inizio dell'analisi, rendendo contingente il risultato finale. Credo che ciò sia problematico per due motivi: 1) alcuni lettori meno esperti non presteranno nemmeno attenzione ai priori e interpreteranno i risultati bayesiani come non contingenti; 2) a meno che non siano disponibili i dati grezzi, è difficile per i lettori riformulare i risultati nei propri priori soggettivi. Questo è il motivo per cui preferisco i rapporti di verosimiglianza,

(I critici astuti noteranno che anche il rapporto di verosimiglianza è "contingente", nel senso che dipende dalla parametrizzazione dei modelli da confrontare; tuttavia questa è una caratteristica condivisa da tutti i metodi, Frequentista, Bayesiano e Probabile)


9
Il problema opposto con le statistiche frequentiste è che la soggettività è lì, ma non è menzionata affatto. Il problema (pratico) con i rapporti di probabilità è che si basano sull'ottimizzazione della probabilità e quindi ignorano il fatto che potrebbero esserci altre soluzioni con una probabilità solo leggermente inferiore. È qui che è utile il fattore Bayes. Ma è sempre "cavalli per corsi".
Dikran Marsupial,

6

La teoria delle decisioni è la teoria di base su cui opera la statistica. Il problema è trovare una buona procedura (in un certo senso) per produrre decisioni dai dati. Tuttavia, raramente esiste una scelta inequivocabile della procedura, nel senso di minimizzare la perdita attesa, quindi altri criteri devono essere invocati per scegliere tra di loro. La scelta delle procedure Bayes rispetto ad alcuni precedenti è uno di questi criteri, ma potrebbe non essere sempre quello che desideri. Minimax potrebbe essere più importante in alcuni casi o imparzialità.

Chiunque insista sul fatto che i frequentatori abbiano torto o che i bayesiani o il torto stiano per lo più rivelando la loro ignoranza delle statistiche.


5

Per un po 'di tempo ho voluto istruirmi di più sugli approcci bayesiani alla modellistica per superare la mia comprensione superficiale (ho codificato i campionatori Gibbs nel lavoro dei corsi di laurea, ma non ho mai fatto nulla di reale). Lungo la strada, anche se ho pensato che alcuni dei documenti di Brian Dennis fossero stati stimolanti e avrei desiderato poter trovare un amico bayesiano (quelli che non erano nell'armadio) per leggere i giornali e ascoltare i loro contrappunti. Quindi, ecco i documenti a cui mi riferisco, ma la citazione che ricordo sempre è

Essere bayesiano significa non dover mai dire che ti sbagli.

http://faculty.washington.edu/skalski/classes/QERM597/papers/Dennis_1996.pdf http://classes.warnercnr.colostate.edu/nr575/files/2011/01/Lele-and-Dennis-2009.pdf


1
Il primo articolo (non ho letto il secondo) sembra di più su come viene praticato bayes rispetto alla teoria. In pratica i modelli non sono controllati nel modo più rigoroso che dovrebbero, ma in teoria le statistiche bayesiane hanno strutture di controllo dei modelli superiori, chiamate "prove" di Jaynes, che è incarnata nel denominatore P (modello D |) della regola di bayes. Con esso puoi confrontare l'adeguatezza di un modello, qualcosa che puoi fare empiricamente solo nelle statistiche frequentiste. Il problema, ovviamente, è che le prove sono difficili da calcolare, quindi la maggior parte delle persone le ignora e pensa che il posteriore sia il fattore
fondamentale

2
pt. 2 Prova a cercare "campionamento nidificato" su google e troverai un documento su un metodo MCMC per calcolare le prove. (Esistono anche altri metodi di controllo dei modelli non basati su prove: Gelman controlla i suoi modelli campionando dal predittivo posteriore e confrontandolo (visivamente o in altro modo) con i dati reali.) Alcune persone suggeriscono persino che i modelli dovrebbero essere mediati osservando lo spazio dei modelli stessi da emarginare. Un'altra cosa che possiamo vedere all'orizzonte sono le bay non parametriche, che risolvono il problema consentendo una gamma di modelli molto più ampia rispetto ai modelli parametrici tradizionali.
cespinoza,

5
Inoltre, ti consiglio di guardare videolectures.net/mlss09uk_jordan_bfway di Michael I. Jordan, un professore di berkeley che è abbastanza equilibrato nelle sue opinioni sul presunto Bayes vs Freq. "guerra". Non posso davvero commentare la seconda metà del primo documento b / c, non conosco nessuno dei riferimenti ecologici. Leggerò il secondo più tardi.
cespinoza,

1
@cespinoza: stavo pensando a come andare al lavoro. Il documento afferma che un bayesiano non guarderebbe mai i residui (cioè confronta l'output del modello con i dati effettivi), e forse un bayesiano stridente potrebbe evitare questo principio, ma i professionisti come Gelman certamente confrontano l'output del modello (posteriore predittivo) con i dati reali. Non ne so abbastanza per andare oltre, ma la mia impressione dei giornali è che abbiano allestito "in linea di principio" uomini di paglia per attaccare.
Wayne,

2
Basta aggiungere che un bayesiano che non controlla i residui è un cattivo statistico. Di solito, un metodo bayesiano viene utilizzato con un modello "grezzo e pronto" e precedenti. Controllare i residui è un modo per vedere se hai abbastanza delle tue conoscenze nel precedente e nel modello. Va di pari passo con il controllo delle caratteristiche teoriche del tuo modello e del precedente
Probislogic

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.