Secondo Fritz, Morris e Richler (2011; vedi sotto), può essere calcolato come una dimensione dell'effetto per il test U di Mann-Whitney usando la formula r = z Questo è conveniente per me, poiché riportoranche in altre occasioni. Vorrei segnalare l'intervallo di confidenza perr
Ecco le mie domande :
- Posso calcolare gli intervalli di confidenza per r come per r di Pearson, sebbene sia usato come misura delle dimensioni dell'effetto per un test non parametrico?
- Quali intervalli di confidenza devono essere segnalati per i test a una coda o a due code?
Modifica relativa alla seconda domanda: "Quali intervalli di confidenza devono essere segnalati per i test a una coda o a due code?"
Ho trovato alcune ulteriori informazioni che IMHO potrebbe rispondere a questa domanda. "Considerando che i limiti di confidenza bilaterale formano un intervallo di confidenza, le loro controparti unilaterali sono denominate limiti di confidenza inferiore o superiore." ( http://en.wikipedia.org/wiki/Confidence_interval ). Da queste informazioni, concludo che non è il problema principale se il test di significatività (ad esempio, test ) sia a una o due code, ma quali informazioni sono interessate rispetto all'IC per la dimensione dell'effetto. La mia conclusione (per favore correggimi se non sei d'accordo):
- CI a due facce interessato alla parte superiore e limiti inferiore (di conseguenza, è possibile che un CI bilaterale implichi 0 sebbene il test di significatività a una coda fosse p <.05, soprattutto nel caso in cui il valore fosse vicino. 05.)
- "CI" unilaterale interessato solo al limite superiore o inferiore (per ragioni teoriche); tuttavia, questa non è necessariamente la principale questione di interesse dopo aver verificato un'ipotesi diretta. Un CI a due facciate è perfettamente appropriato se il focus è sulla possibile gamma di una dimensione dell'effetto. Giusto?
Vedi sotto per il passaggio di testo di Fritz, Morris e Richler (2011) sulla stima delle dimensioni degli effetti per il test di Mann-Whitney dall'articolo a cui mi riferisco sopra.
"La maggior parte delle stime sulla dimensione dell'effetto che abbiamo descritto qui presuppone che i dati abbiano una distribuzione normale. Tuttavia, alcuni dati non soddisfano i requisiti dei test parametrici, ad esempio i dati su una scala ordinale ma non a intervalli. Per tali dati, i ricercatori di solito si rivolgono a test statistici non parametrici, come i test di Mann-Whitney e Wilcoxon. Il significato di questi test viene di solito valutato attraverso l'approssimazione delle distribuzioni delle statistiche dei test alla distribuzione quando le dimensioni del campione non sono troppo piccole e statistiche i pacchetti, come SPSS, che eseguono questi test riportano il valore z appropriato oltre ai valori per U o T ;può anche essere calcolato a mano (ad es. Siegel & Castellan, 1988). Il valore può essere usato per calcolare una dimensione dell'effetto, come la r proposta da Cohen (1988); Le linee guida di Cohen per r sono che un effetto grande è .5, un effetto medio è .3 e un effetto piccolo è .1 (Coolican, 2009, p. 395). È facile calcolare r , r 2 o η 2 da questi valori z perché r = z e r2
Queste stime sulla dimensione dell'effetto rimangono indipendenti dalla dimensione del campione nonostante la presenza di N nelle formule. Questo perché z è sensibile alle dimensioni del campione; la divisione per una funzione di N rimuove l'effetto della dimensione del campione dalla stima della dimensione dell'effetto risultante. "(p. 12)