Il significato di "dipendenza positiva" come condizione per utilizzare il solito metodo per il controllo FDR


36

Benjamini e Hochberg hanno sviluppato il primo (e ancora più ampiamente usato, credo) metodo per controllare il tasso di scoperta falsa (FDR).

Voglio iniziare con un gruppo di valori P, ciascuno per un confronto diverso, e decidere quali sono abbastanza bassi da essere chiamati una "scoperta", controllando l'FDR su un valore specificato (diciamo il 10%). Un'ipotesi del solito metodo è che l'insieme di confronti sia indipendente o abbia "dipendenza positiva" ma non riesco a capire esattamente cosa significhi quella frase nel contesto dell'analisi di un insieme di valori P.


1
Grazie per aver assegnato la grazia alla mia risposta, Harvey! Diresti che risolve questo problema per te o stai cercando un'esposizione più dettagliata? Ho notato che non hai ancora accettato alcuna risposta, ecco perché vorrei chiarire. Grazie. Forse puoi commentare o modificare la tua Q per chiarire cosa vorresti ancora avere chiarito.
ameba dice Ripristina Monica il

2
@ameba. Il termine per la generosità era su di me e la tua risposta era di gran lunga la migliore. Francamente, in quel momento non mi è mai venuto in mente che dare una generosità non accettasse la risposta. Ma so che sono distinti (darò la colpa al jet lag). Ma una risposta completa deve davvero includere esempi realistici in cui sia l'insieme dei valori P sia quelli che non hanno una dipendenza positiva. Terrò fuori accettando una risposta per una settimana nella speranza che qualcuno possa dare entrambi i tipi di esempi, quindi il significato è chiaro.
Harvey Motulsky,

Questo probabilmente non è davvero un esempio soddisfacente, ma è davvero facile trovare valori p con e senza dipendenza positiva se pensiamo di eseguire test con una coda su variabili correlate. Immagina che sto testando se A = 0 e anche se B = 0 rispetto alle alternative a una coda (A> 0 e B> 0). Immagina inoltre che B dipenda da A. Ad esempio, immagina di voler sapere se una popolazione contiene più donne rispetto agli uomini e anche se la popolazione contiene più ovaie rispetto ai testicoli. Conoscere chiaramente il valore p della prima domanda cambia la nostra aspettativa del valore p per la seconda
Jacob Socolar,

Grazie Harvey. Spero fosse chiaro che non stavo cercando di spingerti ad accettare la mia risposta (!!) ma piuttosto a chiarire quale tipo di risposta stai cercando in questo thread e cosa vorresti ancora avere chiarito. Non sono davvero un esperto di questo argomento, sto solo cercando di dargli un senso.
ameba dice Ripristina Monica il

Entrambi i valori p cambiano nella stessa direzione, e questo è PRD. Ma se invece testassi la seconda ipotesi che la popolazione 2 ha più testicoli delle ovaie, la nostra aspettativa per il secondo valore p diminuisce all'aumentare del primo valore p. Questo non è PRD.
Jacob Socolar,

Risposte:


20

Dalla tua domanda e, in particolare, i vostri commenti a altre risposte, mi sembra che si sono confusi principalmente sulla "grande quadro" qui: vale a dire, cosa significa "dipendenza positiva" si riferiscono a in questo contesto, a tutti - a differenza di quanto è il significato tecnico della condizione PRDS. Quindi parlerò del quadro generale.

La grande immagine

Immagina di testare ipotesi null e immagina che siano tutte vere. Ciascuno dei valori è una variabile casuale; ripetere ripetutamente l'esperimento produrrebbe ogni volta un valore differnet, quindi si può parlare di una distribuzione di valori (sotto il valore null). È noto che per ogni test, una distribuzione di valori sotto il null deve essere uniforme; quindi nel caso di test multiplo, tutte le distribuzioni marginali di valori saranno uniformi.NN ppppNp

Se tutti i dati e tutti i test sono indipendenti l'uno dall'altro, anche la distribuzione dimensionale congiunta dei valori sarà uniforme. Ciò sarà vero, ad esempio in una classica situazione "jelly-bean" quando vengono testati un mucchio di cose indipendenti:NNp

jelly bean verdi

Tuttavia, non deve essere così. Qualsiasi coppia di valori può in linea di principio essere correlata, positivamente o negativamente, o essere dipendente in qualche modo più complicato. Considera di provare tutte le differenze a coppie nelle medie tra quattro gruppi; questo è N = 4 3 / 2 = 6 prove. Ognuno dei sei valori p da solo è distribuito uniformemente. Ma sono tutti positivamente correlati: se (per un dato tentativo) il gruppo A per caso ha una media particolarmente bassa, allora il confronto A-vs-B potrebbe produrre un valore basso (questo sarebbe un falso positivo). Ma in questa situazione è probabile che anche A-vs-C, così come A-vs-D, produrrà un bassopN=43/2=6ppp-valori. Quindi i valori sono ovviamente non indipendenti e inoltre sono positivamente correlati tra loro.p

Questo è, informalmente, ciò a cui si riferisce "dipendenza positiva".

Questa sembra essere una situazione comune nei test multipli. Un altro esempio potrebbe essere il test delle differenze tra diverse variabili correlate tra loro. Ottenere una differenza significativa in una di esse aumenta le possibilità di ottenere una differenza significativa in un'altra.

È difficile trovare un esempio naturale in cui i valori sarebbero "negativamente dipendenti". @ user43849 ha osservato nei commenti sopra che per i test unilaterali è facile:p

Immagina che sto testando se A = 0 e anche se B = 0 rispetto alle alternative a una coda (A> 0 e B> 0). Immagina inoltre che B dipenda da A. Ad esempio, immagina di voler sapere se una popolazione contiene più donne rispetto agli uomini, e anche se la popolazione contiene più ovaie rispetto ai testicoli. Conoscere chiaramente il valore p della prima domanda cambia la nostra aspettativa del valore p per la seconda. Entrambi i valori p cambiano nella stessa direzione, e questo è PRD. Ma se invece testassi la seconda ipotesi che la popolazione 2 ha più testicoli delle ovaie, la nostra aspettativa per il secondo valore p diminuisce all'aumentare del primo valore p. Questo non è PRD.

Ma finora non sono stato in grado di trovare un esempio naturale con punti null.


Ora, l'esatta formulazione matematica della "dipendenza positiva" che garantisce la validità della procedura Benjamini-Hochberg è piuttosto complicata. Come menzionato in altre risposte, il riferimento principale è Benjamini & Yekutieli 2001 ; mostrano che la proprietà PRDS ("dipendenza di regressione positiva da ciascuna di un sottoinsieme") implica la procedura di Benjamini-Hochberg. È una forma rilassata della proprietà PRD ("dipendenza da regressione positiva"), il che significa che PRD implica PRDS e quindi comporta anche la procedura di Benjamini-Hochberg.

Per le definizioni di PRD / PRDS vedere la risposta di @ user43849 (+1) e il documento di Benjamini & Yekutieli. Le definizioni sono piuttosto tecniche e non ho una buona comprensione intuitiva di esse. Di fatto, B&Y menziona anche molti altri concetti correlati: positività totale multivariata del secondo ordine (MTP2) e associazione positiva. Secondo B&Y, sono correlati come segue (il diagramma è mio):

PRD, PRDS, MTP2 e PA

MTP2 implica PRD che implica PRDS che garantisce la correttezza della procedura BH. PRD implica anche PA, ma PA PRDS.


Un esempio di dipendenza negativa sarebbe un test post- accoppiamento post hoc che segue, per esempio, un ANOVA a una via di tre gruppi, in cui , ma ˉ x B < μ B , mentre ˉ x Aμ A e ˉ x Cu C , così mentre p a  vs  B è meno probabile che respingere (perché sotto H 0 | ˉ x a - ˉμA<μB<μCx¯B<μBx¯AμAx¯CμCpA vs. BH0 ), ma a causa della dipendenzapB vs. Cèpiùprobabile che si rifiuti? |x¯Ax¯B|<|x¯Bx¯C|pB vs. C
Alexis,

1
@Alexis Stavo pensando in questo senso, ma non penso che funzioni perché dobbiamo considerare cosa succede sotto il nulla . In questo caso, il valore nullo è che , quindi il tuo ragionamento si interrompe. μA=μB=μC
ameba dice di reintegrare Monica il

Quindi, se è difficile pensare a situazioni di dipendenza negativa, allora la procedura Benjamini-Hochberg è valida per situazioni come test di coppia post hoc a seguito del rifiuto di un'ipotesi nulla omnibus relativa a gruppi indipendenti (ad es. Un modo non bloccato ANOVA, Q di Cochran, Kruskal- Wallis, ecc.)?
Alexis,

@Alexis Credo che sia corretto, sì. Sto ancora cercando di trovare un esempio naturale con dipendenza negativa ...
Ameba dice Reinstate Monica

ROCCIA! Vai ragazza! :) (Per significati senza genere della parola "ragazza";).
Alexis,

18

Ottima domanda! Facciamo un passo indietro e comprendiamo cosa ha fatto Bonferroni e perché è stato necessario per Benjamini e Hochberg sviluppare un'alternativa.

Negli ultimi anni è diventato necessario e obbligatorio eseguire una procedura chiamata correzione multipla dei test. Ciò è dovuto al numero crescente di test eseguiti simultaneamente con scienze ad alto rendimento, in particolare nella genetica con l'avvento di studi sull'associazione dell'intero genoma (GWAS). Scusa il mio riferimento alla genetica, in quanto è la mia area di lavoro. Se stiamo eseguendo test 1.000.000 simultaneamente a , ci si aspetterebbe di 50 , 000 falsi positivi. Questo è ridicolmente grande, e quindi dobbiamo controllare il livello al quale viene valutata la significatività. La correzione bonferroni, cioè dividendo la soglia di accettazione (0,05) per il numero di test indipendenti ( 0,05 / MP=0.0550,000 corregge il tasso di errore saggio della famiglia ( F W E R ).(0.05/M)FWER

Ciò è vero perché il FWER è relativo a tasso di errore test-wise ( ) dall'equazione F W E R = 1 - ( 1 - T W E R ) M . Cioè, il 100 percento meno 1 sottrae il tasso di errore saggio del test elevato alla potenza del numero di test indipendenti eseguiti. Partendo dal presupposto che ( 1 - 0,05 ) 1 / M = 1 - 0,05TWERFWER=1(1TWER)MTWER0,05(10.05)1/M=10.05M , che è il valore di accettazione P corretto per i test M completamente indipendenti.TWER0.05M

Il problema che incontriamo ora, così come Benjamini e Hochberg, è che non tutti i test sono completamente indipendenti. Pertanto, la correzione Bonferroni, sebbene robusta e flessibile, è una correzione eccessiva . Considera il caso della genetica in cui due geni sono collegati in un caso chiamato disequilibrio del legame; cioè, quando un gene ha una mutazione, è più probabile che ne sia espresso un altro. Questi ovviamente non sono test indipendenti, anche se nella correzione bonferroni si presume che lo siano . È qui che iniziamo a vedere che la divisione del valore P per M sta creando una soglia artificialmente bassa a causa di presunti test indipendenti che si influenzano davvero a vicenda, creando quindi una M che è troppo grande per la nostra situazione reale, dove le cose non sono non è indipendente.

La procedura suggerita da Benjamini e Hochberg e ampliata da Yekutieli (e molti altri) è più liberale di Bonferroni, e in effetti la correzione di Bonferroni è attualmente utilizzata solo nel più vasto degli studi. Questo perché, in FDR, assumiamo una certa interdipendenza da parte dei test e quindi una M che è troppo grande e non realistica e che si sbarazza dei risultati che, in realtà, ci preoccupano. Pertanto, nel caso di 1000 test che non sono indipendenti, la vera M non sarebbe 1000, ma qualcosa di più piccolo a causa delle dipendenze. Pertanto, quando dividiamo 0,05 per 1000, la soglia è troppo rigida ed evita alcuni test che potrebbero essere di interesse.

Non sono sicuro se ti preoccupi dei meccanismi alla base del controllo della dipendenza, anche se in tal caso ho collegato il documento Yekutieli come riferimento. Allegherò anche alcune altre cose per vostra informazione e curiosità.

Spero che questo abbia aiutato in qualche modo, se ho travisato qualcosa per favore fatemelo sapere.

~ ~ ~

Riferimenti

Documento Yekutieli sulle dipendenze positive - http://www.math.tau.ac.il/~ybenja/MyPapers/benjamini_yekutieli_ANNSTAT2001.pdf

(vedi 1.3 - Il problema.)

Spiegazione di Bonferroni e altre cose di interesse - recensioni di Nature Genetics. Test statistici di potenza e significatività in studi genetici su larga scala - Pak C Sham e Shaun M Purcell

(vedi riquadro 3.)

http://en.wikipedia.org/wiki/Familywise_error_rate

MODIFICARE:

Nella mia risposta precedente non ho definito direttamente la dipendenza positiva, che era ciò che era stato chiesto. Nel documento di Yekutieli, la sezione 2.2è intitolata Dipendenza positiva, e suggerisco questo in quanto è molto dettagliato. Tuttavia, credo che possiamo renderlo un po 'più conciso.

Inizialmente il documento inizia parlando di dipendenza positiva, usandola come un termine vago che è interpretabile ma non specifico. Se leggi le prove, la cosa che viene menzionata come dipendenza positiva si chiama PRSD, definita in precedenza come "Dipendenza da regressione positiva su ognuna da un sottoinsieme ". I 0 è il sottoinsieme di test che supportano correttamente l'ipotesi nulla (0). Il PRDS viene quindi definito come segue.I0I0

PRDS

XI0XI0XI0xX

P

In sintesi, la proprietà della dipendenza positiva è in realtà la proprietà della dipendenza dalla regressione positiva di tutta la nostra serie di statistiche di test sulla nostra serie di statistiche di test nulli reali e controlliamo per un FDR di 0,05; pertanto, poiché i valori di P vanno dal basso verso l'alto (la procedura di incremento), aumentano le probabilità di far parte dell'insieme null.

La mia precedente risposta nei commenti sulla matrice di covarianza non era errata, solo un po 'vaga. Spero che questo aiuti un po 'di più.


6
Grazie. Fornisci una chiara panoramica del controllo dei tassi di errore familiari (Bonferroni ecc.) Rispetto al controllo dell'FDR, ma non capisco ancora cosa significhi "dipendenza positiva". Considera che ho 1000 valori di P, testando l'espressione di 1000 geni diversi confrontando le persone con e senza qualche malattia. Uso il metodo BH per decidere quali di questi confronti sono "scoperte". Cosa significa "dipendenza positiva" in questo contesto?
Harvey Motulsky,

9
Una piccola ma importante nota: Bonferroni non fa assolutamente ipotesi sull'indipendenza. In effetti, coprirà correttamente nel caso reciprocamente esclusivo, che, in un certo senso, è quasi il più indipendente possibile. V'è una procedura di correzione (Sidak) che non assume l'indipendenza e sarà più forte il controllo FWER sotto quel presupposto. Alcuni altri aspetti di questa risposta potrebbero usare anche qualche leggero ritocco.
cardinale il

2
@ChrisC Ancora non capisco. "Matrice di covarianza tra elementi"? Comincio con un elenco di valori P e voglio decidere quali sono abbastanza bassi da poter essere chiamati "scoperte" su cui vale la pena dare seguito (con il controllo FDR). Quali sono gli elementi della matrice di covarianza? Supponiamo che ogni valore P paragona l'espressione di un particolare gene tra gruppi e che ci siano molti di questi geni. Per ciascun gene, al test confronta i gruppi risultanti in un valore P. Che cosa significa, in questa situazione, che "elementi variano insieme" o hanno "correlazioni positive tra loro"?
Harvey Motulsky,

2
@ChrisC Grazie. È diventato più chiaro, ma non riesco ancora a capire cosa significhi questo presupposto. Il punto fondamentale della conoscenza del presupposto alla base del metodo è sapere quando è probabile che tu lo stia violando. Quindi sarebbe utile elencare alcuni scenari in cui l'assunto non è vero. Quando un valore P inferiore non sarebbe associato a una maggiore probabilità che l'ipotesi nulla fosse falsa?
Harvey Motulsky,

1
Questo non risponde alla domanda.
Alexis,

10

Ho trovato questa prestampa utile per comprenderne il significato. Va detto che offro questa risposta non come esperto dell'argomento, ma come tentativo di capire di essere controllato e convalidato dalla comunità.

Grazie ad Amoeba per osservazioni molto utili sulla differenza tra PRD e PRDS, vedere i commenti

pCpC

  1. qC
  2. rqrqri<qii
  3. rC

C

pp1...pn<B1...BnpCB1...Bn

pipipip1...pnp1...pnpi

p1...pn

pnpn<BBpn<Bpn<BB

Modificato per aggiungere:

Ecco un esempio putativo di un sistema che non è PRDS (codice R di seguito). La logica è che quando i campioni aeb sono molto simili, è più probabile che il loro prodotto sia atipico. Sospetto che questo effetto (e non la non uniformità dei valori di p sotto il valore nullo per il (a*b), (c*d)confronto) stia guidando la correlazione negativa nei valori di p, ma non posso esserne sicuro. Lo stesso effetto appare se eseguiamo un test t per il secondo confronto (piuttosto che un Wilcoxon), ma la distribuzione dei valori di p non è ancora uniforme, presumibilmente a causa di violazioni del presupposto della normalità.

ab <- rep(NA, 100000)  # We'll repeat the comparison many times to assess the relationships among p-values.
abcd <- rep(NA, 100000)

for(i in 1:100000){
  a <- rnorm(10)    # Draw 4 samples from identical populations.
  b <- rnorm(10)
  c <- rnorm(10)
  d <- rnorm(10)

  ab[i] <- t.test(a,b)$p.value          # We perform 2 comparisons and extract p-values
  abcd[i] <- wilcox.test((a*b),(c*d))$p.value
}

summary(lm(abcd ~ ab))    # The p-values are negatively correlated

ks.test(ab, punif)    # The p-values are uniform for the first test
ks.test(abcd, punif)   # but non-uniform for the second test.
hist(abcd)

Mi dispiace, ma non lo seguo davvero.
Harvey Motulsky,

Il nuovo paragrafo finale lo chiarisce del tutto?
Jacob Socolar,

@ Amoeba, sì, penso che tu abbia ragione. I documenti Yekutieli collegati da precedenti poster sono trattamenti di PRDS. Per quanto ne so, PRD è la stessa proprietà, ma in tutte le statistiche di test (o valori p), non solo il sottoinsieme corrispondente a veri e propri null.
Jacob Socolar,

1
Sì, hai assolutamente ragione. Modifica ora.
Jacob Socolar,

1
Esempio interessante, ma l'effetto è super-debole: ottengo un coefficiente di correlazione (tra ab e abcd) di circa -0,03 ... Ma non capisco: perché dici che "quando i campioni aeb sono molto simili , è più probabile che il loro prodotto sia atipico "?
ameba dice di reintegrare Monica il

4

Nel loro articolo , Benjamini e Yekutieli forniscono alcuni esempi di come la dipendenza da regressione positiva (PRD) sia diversa dal solo essere associato positivamente. La procedura di controllo FDR si basa su una forma più debole di PRD che chiamano PRDS (ovvero PRD su ciascuno da un sottoinsieme di variabili).

La dipendenza positiva è stata originariamente proposta nel contesto bivariato da Lehmann , ma la versione multivariata di questo concetto, nota come dipendenza da regressione positiva è ciò che è rilevante per i test multipli.

Ecco un estratto rilevante da pag.6

X(X1,X2)Xh(X1)X2h(X1)


2

La dipendenza positiva in questo caso significa che l'insieme di test è correlato positivamente. L'idea quindi è che se le variabili nel set di test per cui si hanno valori P sono positivamente correlate, ognuna delle variabili non è indipendente .

Se ripensi a una correzione del valore p di Bonferroni, ad esempio, puoi garantire che il tasso di errore di tipo 1 sia inferiore al 10% rispetto a 100 test statisticamente indipendenti impostando la soglia di significatività su 0,1 / 100 = 0,001. Ma cosa succederebbe se ciascuno di questi 100 test fosse correlato in qualche modo? Quindi non hai davvero eseguito 100 test separati.

In FDR, l'idea è leggermente diversa dalla correzione Bonferroni. L'idea è di garantire che solo una certa percentuale (diciamo il 10%) delle cose che dichiarate significative siano dichiarate falsamente significative. Se nel set di dati sono presenti marcatori correlati (dipendenza positiva), il valore FDR viene scelto in base al numero totale di test eseguiti (ma il numero effettivo di test statisticamente indipendenti è inferiore). In questo modo è più sicuro concludere che il tasso di falsa scoperta sta dichiarando erroneamente un 10% o meno significativo dei test nel tuo set di valori P.

Si prega di consultare questo capitolo del libro per una discussione sulla dipendenza positiva.


2
Spieghi FDR contro Bonferroni, ma non definisci "dipendenza positiva" ma piuttosto la riformuli in "correlata positivamente" ma non capisco. Considera che ho 1000 valori di P, testando l'espressione di 1000 geni diversi confrontando le persone con e senza qualche malattia. Uso il metodo BH per decidere quali di questi confronti sono "scoperte". Cosa significa "dipendenza positiva" in questo contesto?
Harvey Motulsky,

5
Questa risposta è completamente sbagliata. La dipendenza dalla regressione positiva e l'essere associati positivamente sono diversi l'uno dall'altro. Il documento di Benjamini Yekutieli spiega questo e fornisce anche riferimenti. "Tuttavia, PRDS e associazione positiva non si implicano a vicenda, e la differenza è di una certa importanza. Ad esempio, una distribuzione normale multivariata è associata positivamente se tutte le correlazioni sono non negative. Non tutte le correlazioni devono essere non negative per la proprietà PRDS ( vedere la Sezione 3.1, Caso 1 di seguito). " Vedi pag. 6 del documento.
user3303
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.