Una meta-analisi di studi che sono tutti "non statisticamente significativi" può portare a una conclusione "significativa"?


29

Una meta-analisi include una serie di studi, ognuno dei quali ha riportato un valore P superiore a 0,05. È possibile per la meta-analisi complessiva riportare un valore P inferiore a 0,05? In quali circostanze?

(Sono abbastanza sicuro che la risposta sia sì, ma vorrei un riferimento o una spiegazione.)


1
Non so molto sulla meta-analisi, ma avevo l'impressione che non coinvolgesse alcun test di ipotesi, solo una stima dell'effetto della popolazione, nel qual caso non c'è alcuna nozione di significato di cui parlare.
Kodiologo il

1
Bene, una meta-analisi - alla fine della giornata - è solo una media ponderata. E puoi certamente impostare un test di ipotesi per quella media ponderata. Vedi, ad esempio, Borenstein, Michael, et al. "Un'introduzione di base ai modelli a effetti fissi e ad effetti casuali per la meta-analisi." Research Synthesis Methods 1.2 (2010): 97-111.
boscovich,

1
Anche le altre risposte sono buone, ma un caso semplice: due studi sono significativi a p = 0,9 ma non a p = 0,95. La probabilità che due studi indipendenti mostrino entrambi p> = 0.9 è solo 0,01, quindi la tua meta analisi potrebbe mostrare significato a p = 0,99
barrycarter,

2
Prendi il limite: nessuna misura può fornire prove sufficienti per / contro un'ipotesi (non banale) per avere un valore piccolo , ma una raccolta abbastanza grande di misure può. p
Eric Towers,

i valori p non indicano effetti "statisticamente significativi" o insignificanti. Cosa potremmo capire da una conclusione significativa? È una conclusione meta-analitica?
Subhash C. Davar,

Risposte:


31

In teoria, sì ...

I risultati dei singoli studi possono essere insignificanti ma, visti insieme, i risultati possono essere significativi.

In teoria puoi procedere trattando i risultati di studio che piacciono le altre variabili casuali. iyii

Sia una variabile casuale (ad es. La stima dallo studio ). Quindi se sono indipendenti ed , puoi stimare costantemente la media con: i y i E [ y i ] = μyiiyiE[yi]=μ

μ^=1niyi

Aggiungendo più presupposti, lascia che sia la varianza della stima . Quindi puoi stimare in modo efficiente con ponderazione inversa della varianza: y i μσi2yiμ

μ^=iwiyiwi=1/σi2j1/σj2

In entrambi i casi, può essere statisticamente significativo a un certo livello di confidenza anche se le singole stime non lo sono.μ^

MA potrebbero esserci grandi problemi, problemi di cui essere a conoscenza ...

  1. Se la metanalisi potrebbe non convergere in (ovvero la media della meta-analisi è uno stimatore incoerente).μE[yi]μμ

    Ad esempio, se c'è una propensione a pubblicare risultati negativi, questa semplice meta-analisi potrebbe essere orribilmente incoerente e distorta! Sarebbe come stimare la probabilità che un lancio della moneta atterra la testa osservando solo i lanci in cui non ha ottenuto la coda!

  2. y j i j y i y jyi e potrebbero non essere indipendenti. Ad esempio, se due studi e si basavano sugli stessi dati, allora trattare e come indipendenti nella meta-analisi potrebbe sottostimare ampiamente gli errori standard e sopravvalutare il significato statistico. Le tue stime sarebbero ancora coerenti, ma gli errori standard devono ragionevolmente tenere conto della correlazione incrociata negli studi.yjijyiyj

  3. Combinare (1) e (2) può essere particolarmente negativo.

    Ad esempio, la meta-analisi dei sondaggi di media insieme tende ad essere più accurata di qualsiasi singolo sondaggio. Ma la media dei sondaggi insieme è ancora vulnerabile all'errore correlato. Qualcosa che è emerso nelle elezioni passate è che i giovani sondaggi d'uscita possono tendere a intervistare altri giovani piuttosto che i vecchi. Se tutti i sondaggi di uscita fanno lo stesso errore, allora hai una stima sbagliata che potresti pensare sia una buona stima (i sondaggi di uscita sono correlati perché usano lo stesso approccio per condurre sondaggi di uscita e questo approccio genera lo stesso errore).

Indubbiamente le persone che hanno più familiarità con la meta-analisi possono trovare esempi migliori, problemi più sfumati, tecniche di stima più sofisticate, ecc ..., ma questo arriva ad alcune delle teorie di base e ad alcuni dei problemi più grandi. Se i diversi studi commettono errori casuali indipendenti, la meta-analisi può essere incredibilmente potente. Se l'errore è sistematico in tutti gli studi (es. Tutti sottostimano gli elettori più anziani ecc ...), anche la media degli studi sarà disattivata. Se si sottovalutano quanto sono correlati gli studi o quanto sono correlati gli errori, si sovrastima efficacemente la dimensione del campione aggregato e si sottostimano gli errori standard.

Ci sono anche tutti i tipi di problemi pratici di definizioni coerenti, ecc ...


1
Sto criticando una meta-analisi per ignorare le dipendenze tra le dimensioni degli effetti (cioè, molte dimensioni degli effetti erano basate sugli stessi partecipanti, ma trattate come indipendenti). Gli autori non dicono niente, siamo comunque solo interessati ai moderatori. Sto sottolineando il punto che hai esposto qui: trattandoli "come indipendenti nella meta-analisi possono sottostimare notevolmente gli errori standard e sopravvalutare il significato statistico". C'è uno studio di prova / simulazione che mostra perché questo è il caso? Ho molti riferimenti che dicono che errori correlati significano SE sottovalutati ... ma non so perché?
Mark White il

1
@MarkWhite L'idea di base non è più complicata di . Se per tutti abbiamo e per allora e il tuo errore standard è . D'altra parte, se i termini della covarianza sono positivi e grandi, l'errore standard sarà maggiore. iVar(Xi)=σ2Cov(Xi,Xj)=0ijVar(1Var(1niXi)=1n2(iVar(Xi)+ijCov(Xi,Xj))iVar(Xi)=σ2Cov(Xi,Xj)=0ij σVar(1niXi)=σ2nσn
Matthew Gunn,

@MarkWhite Non sono un esperto di meta-analisi e onestamente non so quale sia una grande fonte per come si dovrebbe fare una meta-analisi moderna. Concettualmente, replicare l'analisi sugli stessi dati è certamente utile (come sta studiando intensamente alcune materie), ma non è la stessa cosa che riprodurre una scoperta su nuove materie indipendenti.
Matthew Gunn,

1
Ah, quindi a parole: la varianza totale di una dimensione di effetto deriva da (a) la sua varianza e (b) è la covarianza con altre dimensioni di effetto. Se la covarianza è 0, allora la stima dell'errore standard va bene; ma se brilla con altre dimensioni di effetti, dobbiamo tenere conto di quella varianza e ignorarla significa che stiamo sottovalutando la varianza. È come se la varianza fosse formata da due parti A e B e ignorare le dipendenze presuppone che la parte B sia 0 quando non lo è?
Mark White,

1
Inoltre, questa sembra essere una buona fonte (vedi in particolare il riquadro 2): nature.com/neuro/journal/v17/n4/pdf/nn.3648.pdf
Mark White

29

Sì. Supponiamo di avere valori p da N studi indipendenti.NN

Test di Fisher

(EDIT - in risposta all'utile commento di @ mdewey di seguito, è importante distinguere tra diversi meta test. Spiego il caso di un altro meta test menzionato da mdewey di seguito)

Il classico meta test Fisher (vedi Fisher (1932), "Metodi statistici per i ricercatori" ) statistica ha una distribuzione nulla χ 2 2 N , come di rv uniforme .

F=2i=1Nln(pi)
χ2N2 U2ln(U)χ22U

Lasci denotare il -quantile della distribuzione nulla.( 1 - α )χ2N2(1α)(1α)

Supponiamo che tutti i valori p siano uguali a , dove, possibilmente, . Quindi, e quando Ad esempio, per e , i singoli valori devono essere solo inferiori ac > α F = - 2 N ln ( c ) F > χ 2 2 N ( 1 - α ) c < exp ( - χ 2 2 N ( 1 - α )cc>αF=2Nln(c)F>χ2N2(1α)α=0,05N=20p

c<exp(χ2N2(1α)2N)
α=0.05N=20p
> exp(-qchisq(0.95, df = 40)/40)
[1] 0.2480904

Ovviamente, ciò che la meta statistica verifica è "solo" il null "aggregato" che tutti i singoli null sono veri, il che deve essere rifiutato non appena solo uno degli null è falso.N

MODIFICARE:

Ecco un grafico dei valori p "ammissibili" rispetto a , che conferma che cresce in , sebbene sembri a .c N c 0,36NcNc0.36

inserisci qui la descrizione dell'immagine

Ho trovato un limite superiore per i quantili della distribuzione qui , suggerendo che modo che è limitato da come . Come , questo limite sembra ragionevolmente netto.χ 2 2 N ( 1 - α ) 2 N + 2 log ( 1 / α ) + 2 χ2

χ2N2(1α)2N+2log(1/α)+22Nlog(1/α),
χ2N2(1α)=O(N)exp(χ2N2(1α)2N)exp(1)Nexp(1)0.3679

Test inverso normale (Stouffer et al., 1949)

La statistica del test è data da con lo standard normale funzione quantile. Il test rifiuta valori negativi elevati, vale a dire, seΦ-1Z<-1.645

Z=1Ni=1NΦ1(pi)
Φ1Z<1.645α=0.05pi=cZ=NΦ1(c)c<0.5Φ1(c)<0ZpNc0.5ZNN

Z<1.645c<Φ(1.645/N)Φ(0)=0.5N


2
1/e

Grazie :-). Non me l'aspettavo neanche prima di vedere la trama ...
Christoph Hanck,

5
È interessante notare che il metodo dovuto a Fisher è l'unico dei metodi comunemente usati che ha questa proprietà. Per la maggior parte degli altri ciò che chiami F aumenta con N se $ c> 0,5) e diminuisce altrimenti. Ciò si applica al metodo di Stouffer e al metodo di Edgington, nonché ai metodi basati sui logit e sulla media di p. I vari metodi che sono casi speciali del metodo di Wilkinson (minimo p, massimo p, ecc.) Hanno di nuovo proprietà diverse.
mdewey,

1
1/e

p=0.9p

4

p

pα

p[1]p[2]p[k]
k
p[1]<1(1α)1k

kαp[1]α

pp[r]1rkr=2p=0.09

Il metodo di LHC Tippett è descritto in un libro I metodi della statistica. 1931 (1a edizione) e il metodo di Wilkinson è qui in un articolo "Una considerazione statistica nella ricerca psicologica"


1
Grazie. Tuttavia, la maggior parte dei metodi di meta-analisi combinano le dimensioni degli effetti (tenendo conto di eventuali differenze nelle dimensioni del campione) e non combinano i valori P.
Harvey Motulsky,

@HarveyMotulsky ha concordato, combinare i valori di p è l'ultima risorsa, ma l'OP ha taggato la sua domanda con il tag di combinazione di valori di p, quindi ho risposto con quello spirito
mdewey

Penso che la tua risposta sia corretta.
Subhash C. Davar,
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.