Ho tre gruppi di dati, ognuno con una distribuzione binomiale (cioè ogni gruppo ha elementi che hanno successo o fallimento). Non ho una probabilità prevista di successo, ma invece posso solo fare affidamento sul tasso di successo di ciascuno come approssimazione per il vero tasso di successo. Ho trovato solo questa domanda , che è vicina ma non sembra affrontare esattamente questo scenario.
Per semplificare il test, diciamo solo che ho 2 gruppi (3 possono essere estesi da questo caso di base).
- Prove di gruppo 1: = 2455
- Prove di gruppo 2: = 2730
- Successo gruppo 1: = 1556
- Successo gruppo 2: = 1671
Non ho una probabilità di successo attesa, solo ciò che so dai campioni. Quindi il mio tasso di successo implicito per i due gruppi è:
- Tasso di successo del gruppo 1: = 1556/2455 = 63,4%
- Gruppo 2 tasso di successo: = 1671/2730 = 61.2%
Il tasso di successo di ciascuno dei campioni è abbastanza vicino. Tuttavia, anche le dimensioni dei miei campioni sono piuttosto grandi. Se controllo il CDF della distribuzione binomiale per vedere quanto è diverso dal primo (dove suppongo che il primo sia il test null) ho una probabilità molto piccola che il secondo possa essere raggiunto.
In Excel:
1-BINOM.DIST (1556.2455,61,2%, TRUE) = 0,012
Tuttavia, ciò non tiene conto di nessuna variazione del primo risultato, ma presuppone solo che il primo risultato sia la probabilità del test.
Esiste un modo migliore per verificare se questi due campioni di dati sono effettivamente statisticamente diversi l'uno dall'altro?
prop.test
: prop.test(c(1556, 1671), c(2455, 2730))
.