No.
Mentre i test parametrici possono essere più potenti, non è sempre così. Quando non è così, di solito è in situazioni in cui non dovresti eseguire i test parametrici.
Tuttavia, anche se stai raccogliendo campioni di dimensioni decenti da distribuzioni normali con uguale varianza in cui il test parametrico ha una potenza maggiore, non garantisce che per un particolare esperimento un test parametrico non significativo significhi un test non parametrico non significativo. Ecco una simulazione che utilizza solo campionamenti casuali da distribuzioni normali e rileva che circa l'1,8% delle volte quando p> 0,05 per un test t che p <0,05 per un test Wilcoxon.
nsim <- 10000
n <- 50
cohensD <- 0.2
Y <- replicate(nsim, {
y1 <- rnorm(n, 0, 1); y2 <- rnorm(n, cohensD, 1)
tt <- t.test(y1, y2, var.equal = TRUE)
wt <- wilcox.test(y1, y2)
c(tt$p.value, wt$p.value)})
sum(Y[1,] > 0.05 & Y[2,] < 0.05) / nsim
Si può notare che, in questa simulazione, la potenza del test parametrico è maggiore del test non parametrico (sebbene siano simili).
sum(Y[1,] < 0.05) / nsim #t-test power
sum(Y[2,] < 0.05) / nsim #wilcox.test power
Ma, come mostrato sopra, ciò non significa che in tutti i casi in cui il test parametrico non riesce a trovare un effetto che fallisca anche il test non parametrico.
Puoi giocare con questa simulazione. Rendi n abbastanza grande, diciamo 1000, e riduci le dimensioni dell'effetto, diciamo 0,02 (hai bisogno di bassa potenza per avere molti campioni in cui il test fallisce). Potete essere praticamente garantiti con un n di 1000 che nessuno dei campioni verrebbe respinto per non normalità (mediante ispezione, non un test stupido) o con valori anomali sospetti. Tuttavia, alcuni dei test parametrici risultano non significativi mentre i test non parametrici sono significativi.
Potresti anche voler dare un'occhiata a Hunter & May (1993).
Hunter, MA, & May, RB (1993). Alcuni miti riguardanti test parametrici e non parametrici. Canadian Psychology, 34 (4), 384-389.