Confine di errore a livello familiare: il riutilizzo di set di dati su diversi studi di domande indipendenti porta a molteplici problemi di test?


11

Se un team di ricercatori esegue test multipli (ipotesi) su un determinato set di dati, esiste un volume di letteratura che afferma che dovrebbero usare una qualche forma di correzione per test multipli (Bonferroni, ecc.), Anche se i test sono indipendenti. La mia domanda è questa: questa stessa logica si applica a più team che testano ipotesi sullo stesso set di dati? Detto in altro modo: qual è la barriera per i calcoli degli errori a livello familiare? I ricercatori dovrebbero limitarsi a riutilizzare i set di dati solo per l'esplorazione?

Risposte:


10

Non sono molto d'accordo con il salto di @fcoppens dal riconoscere l'importanza della correzione di ipotesi multiple all'interno di una singola indagine sostenendo che "Per lo stesso ragionamento, lo stesso vale se diversi team eseguono questi test".

Non c'è dubbio che più studi vengono eseguiti e più ipotesi vengono verificate, più si verificheranno errori di tipo I. Ma penso che qui ci sia confusione sul significato dei tassi di "errore saggio familiare" e su come si applicano nel lavoro scientifico effettivo.

Innanzitutto, ricorda che le correzioni multi-test sono emerse in genere nei confronti post-hoc per i quali non vi erano ipotesi pre-formulate. Non è affatto chiaro che sono necessarie le stesse correzioni quando esiste un piccolo insieme predefinito di ipotesi.

In secondo luogo, la "verità scientifica" di una singola pubblicazione non dipende dalla verità di ogni singola dichiarazione all'interno della pubblicazione. Uno studio ben progettato affronta un'ipotesi scientifica generale (anziché statistica) da molte prospettive diverse e mette insieme diversi tipi di risultati per valutare l' ipotesi scientifica . Ogni singolo risultato può essere valutato con un test statistico.

Dall'argomento di @fcoppens, tuttavia, se anche uno di quei singoli test statistici commette un errore di tipo I, ciò porta a una "falsa convinzione di" verità scientifica "". Questo è semplicemente sbagliato.

La "verità scientifica" dell'ipotesi scientifica in una pubblicazione, al contrario della validità di un singolo test statistico, deriva generalmente da una combinazione di diversi tipi di prove. L'insistenza su molteplici tipi di prove rende la validità di un'ipotesi scientifica robusta agli errori individuali che inevitabilmente si verificano. Guardando indietro alle mie circa 50 pubblicazioni scientifiche, mi sarebbe difficile trovare qualsiasi cosa rimanga così impeccabile in ogni dettaglio su cui sembra insistere @fcoppens. Eppure io sto in modo simile molto difficile riuscire a trovare qualsiasi dove la scientifical'ipotesi era completamente sbagliata. Incompleto, forse; reso irrilevante dai successivi sviluppi nel settore, certamente. Ma non "sbagliato" nel contesto dello stato delle conoscenze scientifiche al momento.

In terzo luogo, l'argomento ignora i costi di errori di tipo II. Un errore di tipo II potrebbe chiudere interi campi di promettente indagine scientifica. Se si dovessero seguire le raccomandazioni di @fcoppens, i tassi di errore di tipo II aumenterebbero enormemente, a scapito dell'impresa scientifica.

Infine, la raccomandazione è impossibile da seguire nella pratica. Se analizzo un insieme di dati disponibili pubblicamente, potrei non avere modo di sapere se qualcun altro li abbia utilizzati o per quale scopo. Non ho modo di correggere i test di ipotesi di qualcun altro. E come ho discusso sopra, non avrei dovuto.


2
Ho dato una generosità alla domanda perché volevo portarla "in anticipo". Il motivo per cui volevo farlo era che penso che non ottenga abbastanza attenzione e che e che - apparentemente, come ho sperimentato con la mia risposta - non ci sia più "discussione" al riguardo. Come mostra, potrebbe essere una discussione interessante, quindi ottieni un (+1)

@fcoppens grazie per aver portato questo "in primo piano"
EdM

Da questo post, mi sono imbattuto in un ottimo documento che affronta anche questo argomento di Salzberg chiamato "Sul confronto dei classificatori: insidie ​​da evitare e un approccio raccomandato" ( cs.ru.nl/~tomh/onderwijs/lrs/lrs_files/salzberg97comparing. pdf ). Apprezzo la discussione. Questo tipo di domande fa emergere il divario tra statistica e apprendimento automatico / altri campi applicati che è stato discusso in questo post: stats.stackexchange.com/questions/1194/… ....
toypajme

1
Un articolo di Breiman affronta anche questo argomento: projecteuclid.org/euclid.ss/1009213726 . Spero che questi articoli possano servire da facile riferimento per coloro che sono interessati alla ricerca attuale e hanno pubblicato discussioni su questo argomento.
toypajme,

α=0.05

4

α=5%H0(1)H1(1)H0(2)H1(2)

H0(1)α=5%

1(1α)2α=5%9.75%

Nel test delle ipotesi statistiche si possono trovare prove statistiche per l'ipotesi alternativa rifiutando il nulla, rifiutando il nulla ci si può concludere che esistono prove a favore dell'ipotesi alternativa. (vedi anche Cosa segue se non riusciamo a respingere l'ipotesi nulla? ).

Quindi un falso rifiuto del nulla ci fornisce prove false, quindi una falsa convinzione della "verità scientifica". Questo è il motivo per cui questa inflazione di tipo I (il quasi raddoppio dell'errore di tipo I) deve essere evitata; errori di tipo I superiori implicano più false credenze sul fatto che qualcosa sia scientificamente provato . Pertanto le persone "controllano" il tipo Ierror a livello familiare.

5%

Per lo stesso ragionamento, lo stesso vale se diversi team eseguono questi test (sugli stessi dati).

Ovviamente, i risultati di cui sopra valgono solo se i team lavorano sugli stessi dati . Cosa c'è di diverso allora quando lavorano su campioni diversi?

σH0:μ=0H1:μ0α=5%

o1.96σ1.96σ

5%H0H0μ=0H0o[1.96σ;1.96σH0

Quindi, se utilizziamo gli stessi dati, è possibile che le conclusioni dei test siano basate su un campione che è stato disegnato con "cattive probabilità". Con un altro esempio il contesto è diverso.


1
Non sono un fan dell'uso di "prove" rispetto alle prove scientifiche.
Alexis,

@Alexis: è certamente perché l'inglese non è la mia lingua madre, ma ho pensato che "prove" e "prove" sono più o come sinonimo, ma non sembra essere così?

1
La "prova" formale, secondo me, appartiene alla matematica. O, meno formalmente, appartiene alla giurisprudenza. Per me la prova non appartiene alla scienza, perché ciò implica la fine dell'indagine e l'inizio del dogma, e la scienza è fondamentalmente sull'indagine. In inglese (e negli Stati Uniti), ad esempio, abbiamo un gioco retorico in cui gli individui anti-evoluzione diranno "l'evoluzione biologica è solo una teoria e non è stata scientificamente provata ". Certo, il trucco sta nel far dimenticare agli ascoltatori che la scienza non prova mai, fornisce solo prove.
Alexis,
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.