Ho letto del test t di Student, ma sembra funzionare quando possiamo supporre che le distribuzioni originali siano normalmente distribuite. Nel mio caso, sicuramente no.
Inoltre, se ho 13 distribuzioni, devo fare dei 13^2
test?
Ho letto del test t di Student, ma sembra funzionare quando possiamo supporre che le distribuzioni originali siano normalmente distribuite. Nel mio caso, sicuramente no.
Inoltre, se ho 13 distribuzioni, devo fare dei 13^2
test?
Risposte:
Esistono diversi sensi in cui "dipende".
(Una potenziale preoccupazione è che sembra che i dati originali potrebbero essere discreti; questo dovrebbe essere chiarito.)
a seconda della dimensione del campione, la non normalità potrebbe non essere un grosso problema come tutto ciò che riguarda il test t. Almeno per campioni di grandi dimensioni c'è generalmente una buona robustezza di livello - i tassi di errore di tipo I non dovrebbero essere influenzati troppo gravemente se non sono molto lontani dalla normalità. Il potere può essere più un problema con code pesanti.
Se stai cercando qualsiasi tipo di differenza nella distribuzione, potrebbe essere adatto un test di bontà di adattamento a due campioni, come il test di Kolmogorov-Smirnov a due campioni (anche se potrebbero essere eseguiti altri test).
Se stai cercando differenze del tipo di posizione in una famiglia di posizione, o differenze di scala in una famiglia di scala, o anche solo una relazione di tipo P (X> Y)> P (Y> X), una Wilcoxon-Mann-Whitney potrebbero essere adatti due test campione.
È possibile prendere in considerazione test di ricampionamento come permutazione o test di bootstrap, se è possibile trovare una statistica adatta per il tipo (i) di differenze che si desidera avere sensibilità.
Inoltre, se ho 13 distribuzioni, devo fare 13 ^ 2 test?
Bene no .
Queste due cose riducono i confronti a coppie da 169 a 78.
In terzo luogo, sarebbe molto più normale (ma non obbligatorio) testare collettivamente eventuali differenze, e quindi, forse, esaminare le differenze a coppie nei test a coppie post-hoc se il primo null fosse rifiutato.
Ad esempio, al posto di un Wilcoxon-Mann-Whitney come al punto 3. sopra, si potrebbe fare un test di Kruskal-Wallis, che è sensibile alle differenze di posizione tra i gruppi.
Esistono anche versioni k-sample del test Kolmogorov-Smirnov e potrebbero esistere o essere costruiti test analoghi su alcuni degli altri due campioni di test di bontà di adattamento.
Esistono anche versioni k-sample dei test di ricampionamento e del test t (ovvero ANOVA, che potrebbe andare bene se le dimensioni del campione sono ragionevolmente grandi).
Sarebbe davvero bello avere maggiori informazioni su cosa stiamo trattando e su quali tipi di differenze ti interessano di più; o in mancanza, per vedere i grafici QQ di alcuni dei campioni.
Sì, penso che non puoi fare di meglio che testare ogni distribuzione rispetto alle altre ...
Se pensi che la tua domanda sia collegata a questa: confronto di 2 distribuzioni
Si consiglia di utilizzare un test Kolmogorov-Sminorv o un test Cramér-Von Mises. Sono entrambi test di adeguamento molto classici.
In R
, la funzione ks.test
nel pacchetto stats implementa la prima. Il secondo può essere trovato in pacchetti come cramer
.
Per conoscere questi due test: http://en.wikipedia.org/wiki/Kolmogorov%E2%80%93Smirnov_test http://en.wikipedia.org/wiki/Cram%C3%A9r%E2%80%93von_Mises_criterion
Puoi provare l' analisi della varianza a senso unico di Kruskal – Wallis
"Viene utilizzato per il confronto di più di due campioni indipendenti o non correlati"
Le violazioni della normalità in ANOVA sono state discusse in
Rutherford Presentazione di Anova e Ancova: un approccio GLM 9.1.2 Violazioni della normalità
La prima riga è "Sebbene la maggior parte delle fonti riferisca all'ANOVA ... di essere robusta rispetto alle violazioni del presupposto della normalità ..."