Ho intenzione di decodificare questo per esperienza con i casi di discriminazione. Posso sicuramente stabilire da dove provengono i valori di "uno su 741" , ecc . Tuttavia, così tante informazioni sono state perse nella traduzione che il resto della mia ricostruzione si basa sul fatto di aver visto come le persone fanno statistiche in ambito giudiziario. Posso solo indovinare alcuni dei dettagli.
Da quando sono state approvate le leggi antidiscriminazione negli anni '60 (titolo VI), i tribunali degli Stati Uniti hanno imparato a esaminare i valori di p e confrontarli con le soglie di e 0,01 . Hanno anche imparato a esaminare gli effetti standardizzati, in genere denominati "deviazioni standard" e confrontarli con una soglia di "2-3 deviazioni standard". Al fine di stabilire un caso prima facie per una causa di discriminazione, i querelanti in genere tentano un calcolo statistico che mostri un "impatto disparato" che superi queste soglie. Se tale calcolo non può essere supportato, il caso di solito non può avanzare.0.050.01
Gli esperti statistici per i querelanti spesso cercano di esprimere i loro risultati in questi termini familiari. Alcuni esperti conducono un test statistico in cui l'ipotesi nulla esprime "nessun impatto negativo", supponendo che le decisioni di assunzione fossero puramente casuali e non governate da qualsiasi altra caratteristica dei dipendenti. (Che si tratti di un'alternativa a una coda o a due code può dipendere dall'esperto e dalle circostanze.) Quindi convertono il valore p di questo test in un numero di "deviazioni standard" facendo riferimento alla distribuzione normale standard- - anche quando lo standard normale è irrilevante per il test originale. In questo modo sperano di comunicare chiaramente le proprie conclusioni al giudice.
Il test preferito per i dati che possono essere riassunti nelle tabelle di contingenza è il test esatto di Fisher. La presenza di "Exact" nel suo nome è particolarmente piacevole per i querelanti, perché connota una determinazione statistica che è stata fatta senza errori (qualunque cosa possa essere!).
Ecco quindi la mia (ricostruzione speculativa) dei calcoli del Dipartimento del Lavoro.
Hanno eseguito Fisher's Exact Test, o qualcosa del genere (come un test con un valore p determinato tramite randomizzazione). Questo test presuppone una distribuzione ipergeometrica come descritto nella risposta di Matthew Gunn. (Per il piccolo numero di persone coinvolte in questa lamentela, la distribuzione ipergeometrica non è ben approssimata da una distribuzione normale.)χ2
Hanno convertito il suo valore p in un normale punteggio Z ("numero di deviazioni standard").
Hanno arrotondato il punteggio Z al numero intero più vicino: "supera tre deviazioni standard", "supera cinque deviazioni standard" e "supera sei deviazioni standard". (Poiché alcuni di questi Z-score arrotondato il fino a deviazioni più standard, non riesco a giustificare la "superiore"; tutto quello che posso fare è di citarlo.)
Nel reclamo questi punteggi Z integrali sono stati riconvertiti in valori p! Anche in questo caso è stata utilizzata la distribuzione normale standard.
Questi valori p sono descritti (probabilmente in modo fuorviante) come "la probabilità che questo risultato si sia verificato per caso".
1/12801/5650001/5800000073011601307301160130−3.16−4.64−5.521/7411/35000001/1000000000
Ecco un R
codice utilizzato per eseguire questi calcoli.
f <- function(total, percent.asian, hired.asian, hired.non.asian) {
asian <- round(percent.asian/100 * total)
non.asian <- total-asian
x <- matrix(c(asian-hired.asian, non.asian-hired.non.asian, hired.asian, hired.non.asian),
nrow = 2,
dimnames=list(Race=c("Asian", "non-Asian"),
Status=c("Not hired", "Hired")))
s <- fisher.test(x)
s$p.value
}
1/pnorm(round(qnorm(f(730, 77, 1, 6))))
1/pnorm(round(qnorm(f(1160, 85, 11, 14))))
1/pnorm(round(qnorm(f(130, 73, 4, 17))))