Non sono molto d'accordo con il salto di @fcoppens dal riconoscere l'importanza della correzione di ipotesi multiple all'interno di una singola indagine sostenendo che "Per lo stesso ragionamento, lo stesso vale se diversi team eseguono questi test".
Non c'è dubbio che più studi vengono eseguiti e più ipotesi vengono verificate, più si verificheranno errori di tipo I. Ma penso che qui ci sia confusione sul significato dei tassi di "errore saggio familiare" e su come si applicano nel lavoro scientifico effettivo.
Innanzitutto, ricorda che le correzioni multi-test sono emerse in genere nei confronti post-hoc per i quali non vi erano ipotesi pre-formulate. Non è affatto chiaro che sono necessarie le stesse correzioni quando esiste un piccolo insieme predefinito di ipotesi.
In secondo luogo, la "verità scientifica" di una singola pubblicazione non dipende dalla verità di ogni singola dichiarazione all'interno della pubblicazione. Uno studio ben progettato affronta un'ipotesi scientifica generale (anziché statistica) da molte prospettive diverse e mette insieme diversi tipi di risultati per valutare l' ipotesi scientifica . Ogni singolo risultato può essere valutato con un test statistico.
Dall'argomento di @fcoppens, tuttavia, se anche uno di quei singoli test statistici commette un errore di tipo I, ciò porta a una "falsa convinzione di" verità scientifica "". Questo è semplicemente sbagliato.
La "verità scientifica" dell'ipotesi scientifica in una pubblicazione, al contrario della validità di un singolo test statistico, deriva generalmente da una combinazione di diversi tipi di prove. L'insistenza su molteplici tipi di prove rende la validità di un'ipotesi scientifica robusta agli errori individuali che inevitabilmente si verificano. Guardando indietro alle mie circa 50 pubblicazioni scientifiche, mi sarebbe difficile trovare qualsiasi cosa rimanga così impeccabile in ogni dettaglio su cui sembra insistere @fcoppens. Eppure io sto in modo simile molto difficile riuscire a trovare qualsiasi dove la scientifical'ipotesi era completamente sbagliata. Incompleto, forse; reso irrilevante dai successivi sviluppi nel settore, certamente. Ma non "sbagliato" nel contesto dello stato delle conoscenze scientifiche al momento.
In terzo luogo, l'argomento ignora i costi di errori di tipo II. Un errore di tipo II potrebbe chiudere interi campi di promettente indagine scientifica. Se si dovessero seguire le raccomandazioni di @fcoppens, i tassi di errore di tipo II aumenterebbero enormemente, a scapito dell'impresa scientifica.
Infine, la raccomandazione è impossibile da seguire nella pratica. Se analizzo un insieme di dati disponibili pubblicamente, potrei non avere modo di sapere se qualcun altro li abbia utilizzati o per quale scopo. Non ho modo di correggere i test di ipotesi di qualcun altro. E come ho discusso sopra, non avrei dovuto.