Domanda molto interessante, ecco la mia opinione.
Si tratta solo di codificare le informazioni, quindi girare la manovella bayesiana. Sembra troppo bello per essere vero, ma entrambi sono più difficili di quanto sembri.
Comincio con la domanda
Quali informazioni vengono utilizzate quando ci preoccupiamo di confronti multipli?
Posso pensare ad alcuni - il primo è "dragaggio dei dati" - testare "tutto" fino a quando non si ottengono abbastanza passaggi / fallimenti (penso che quasi tutte le statistiche addestrate sarebbero esposte a questo problema). Hai anche meno sinistri, ma essenzialmente lo stesso "Ho tanti test da eseguire - sicuramente tutti non possono essere corretti".
Dopo averci pensato, una cosa che noto è che non si tende a sentire molto su ipotesi specifiche o confronti specifici. Riguarda la "collezione" - questo fa scattare il mio pensiero verso la scambiabilità - le ipotesi a confronto sono in qualche modo "simili" tra loro. E come si codifica la scambiabilità nell'analisi bayesiana? - iper-priori, modelli misti, effetti casuali, ecc. !!!
Ma la intercambiabilità ti porta solo in parte. È tutto intercambiabile? Oppure hai "scarsità" - come solo pochi coefficienti di regressione diversi da zero con un ampio pool di candidati. I modelli misti e gli effetti casuali normalmente distribuiti non funzionano qui. Rimangono "bloccati" tra il rumore schiacciato e lasciando intatti i segnali (ad esempio nel tuo esempio mantieni uguali i parametri di posizione "B" e posizioneC e impostano la posizione Un parametro "vero" arbitrariamente grande o piccolo e guarda il fallimento del modello misto lineare standard). . Ma può essere risolto, ad esempio con priori "punta e lastra" o priori "ferro di cavallo".
Quindi si tratta davvero di descrivere il tipo di ipotesi di cui stai parlando e di ottenere il maggior numero di caratteristiche conosciute riflesse nel precedente e nella probabilità. L'approccio di Andrew Gelman è solo un modo per gestire implicitamente un'ampia classe di confronti multipli. Proprio come i minimi quadrati e le distribuzioni normali tendono a funzionare bene nella maggior parte dei casi (ma non in tutti).
In termini di come lo fa, potresti pensare a un ragionamento di una persona come segue - il gruppo A e il gruppo B potrebbero avere la stessa media - Ho guardato i dati e i mezzi sono "vicini" - Quindi, per ottenere una stima migliore per entrambi, dovrei raggruppare i dati, poiché il mio pensiero iniziale era che avevano la stessa media. - Se non sono gli stessi, i dati dimostrano che sono "vicini", quindi unire un po '"non mi farà troppo male se la mia ipotesi fosse sbagliata (tutti i modelli sono sbagliati, alcuni sono utili)
Si noti che tutte le cerniere sopra nella premessa iniziale "potrebbero essere le stesse". Portalo via e non c'è giustificazione per il pooling. Probabilmente puoi anche vedere un modo "normale di distribuzione" di pensare ai test. "Zero è molto probabilmente", "se non zero, quindi vicino a zero è il prossimo molto probabilmente", "valori estremi sono improbabili". Considera questa alternativa:
- le medie del gruppo A e del gruppo B potrebbero essere uguali, ma potrebbero anche essere drasticamente diverse
Quindi l'argomento sul raggruppamento "un po '" è una pessima idea. È meglio scegliere il pool totale o il pool zero. Molto più simile a un Cauchy, punta e lastra, tipo di situazione (molta massa intorno allo zero e molta massa per valori estremi)
Non è necessario affrontare tutti i confronti multipli, poiché l'approccio bayesiano sta incorporando le informazioni che ci portano a preoccuparci del precedente e / o della probabilità . In un certo senso è più un promemoria pensare correttamente a quali informazioni sono disponibili e assicurarsi di averle incluse nell'analisi.