Domande taggate «false-discovery-rate»

Una frazione attesa di ipotesi nulle rifiutate che sono erroneamente rifiutate, ovvero la frazione di risultati significativi che in realtà non sono vere. Un metodo per controllare FDR in più test è la procedura Benjamini-Hochberg.

5
Il significato di "dipendenza positiva" come condizione per utilizzare il solito metodo per il controllo FDR
Benjamini e Hochberg hanno sviluppato il primo (e ancora più ampiamente usato, credo) metodo per controllare il tasso di scoperta falsa (FDR). Voglio iniziare con un gruppo di valori P, ciascuno per un confronto diverso, e decidere quali sono abbastanza bassi da essere chiamati una "scoperta", controllando l'FDR su un …

2
Quali sono le differenze pratiche tra la Benjamini e la Hochberg (1995) e la Benjamini e la Yekutieli (2001) procedure di falsa scoperta?
Il mio programma statistico implementa sia le procedure del tasso di falsa scoperta (FDR) Benjamini & Hochberg (1995) sia Benjamini & Yekutieli (2001). Ho fatto del mio meglio per leggere l'articolo successivo, ma è abbastanza matematicamente denso e non sono ragionevolmente certo di capire la differenza tra le procedure. Dal …


3
Perché le correzioni multiple di ipotesi non sono applicate a tutti gli esperimenti fin dagli albori dei tempi?
Sappiamo che dobbiamo applicare correzioni tipo Benjamini Hochberg per test di ipotesi multiple su esperimenti basati su un singolo set di dati, al fine di controllare il tasso di scoperta falsa, altrimenti tutti gli esperimenti che danno un risultato positivo potrebbero essere falsi. Ma perché non applichiamo questo stesso principio …


2
FPR (tasso di falsi positivi) vs FDR (tasso di scoperta falsi)
La seguente citazione proviene dal famoso documento di ricerca Significato statistico per gli studi su tutto il genoma di Storey & Tibshirani (2003): Ad esempio, un tasso di falsi positivi del 5% significa che in media il 5% delle caratteristiche veramente nulle nello studio sarà chiamato significativo. Un FDR (False …

3
Confusione con falso tasso di scoperta e test multipli (su Colquhoun 2014)
Ho letto questo fantastico articolo di David Colquhoun: un'indagine sul tasso di false scoperte e sull'errata interpretazione dei valori p (2014). In sostanza, spiega perché il tasso di rilevamento falso (FDR) può raggiungere il anche se controlliamo l'errore di tipo I con α = 0,05 .30%30%30\%α=0.05α=0.05\alpha=0.05 Tuttavia, sono ancora confuso …

1
Significato in linguaggio semplice di test "dipendenti" e "indipendenti" nella letteratura sui confronti multipli?
Sia nella letteratura sulla percentuale di errori a livello familiare (FWER) che sulla percentuale di scoperta falsa (FDR), si dice che particolari metodi di controllo della FWER o della FDR siano appropriati per test dipendenti o indipendenti. Ad esempio, nel documento del 1979 "Una semplice procedura di prova multipla in …


1
Qual è l'intuizione dietro i campioni scambiabili sotto l'ipotesi nulla?
I test di permutazione (chiamati anche test di randomizzazione, test di ri-randomizzazione o test esatto) sono molto utili e sono utili quando l'assunzione della distribuzione normale richiesta da per esempio t-testnon è soddisfatta e quando la trasformazione dei valori per classifica del test non parametrici come Mann-Whitney-U-testquesto porterebbero alla perdita …
15 hypothesis-testing  permutation-test  exchangeability  r  statistical-significance  loess  data-visualization  normal-distribution  pdf  ggplot2  kernel-smoothing  probability  self-study  expected-value  normal-distribution  prior  correlation  time-series  regression  heteroscedasticity  estimation  estimators  fisher-information  data-visualization  repeated-measures  binary-data  panel-data  mathematical-statistics  coefficient-of-variation  normal-distribution  order-statistics  regression  machine-learning  one-class  probability  estimators  forecasting  prediction  validation  finance  measurement-error  variance  mean  spatial  monte-carlo  data-visualization  boxplot  sampling  uniform  chi-squared  goodness-of-fit  probability  mixture  theory  gaussian-mixture  regression  statistical-significance  p-value  bootstrap  regression  multicollinearity  correlation  r  poisson-distribution  survival  regression  categorical-data  ordinal-data  ordered-logit  regression  interaction  time-series  machine-learning  forecasting  cross-validation  binomial  multiple-comparisons  simulation  false-discovery-rate  r  clustering  frequency  wilcoxon-mann-whitney  wilcoxon-signed-rank  r  svm  t-test  missing-data  excel  r  numerical-integration  r  random-variable  lme4-nlme  mixed-model  weighted-regression  power-law  errors-in-variables  machine-learning  classification  entropy  information-theory  mutual-information 





Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.