Utilizzare il Paired t -test
Finché hai abbastanza valutazioni (15 è sufficiente e ne sarei felice anche con meno) e alcune variazioni nelle differenze di valutazione, non c'è alcun problema nell'utilizzare il test- t associato . Quindi ottieni stime che sono molto facili da interpretare: le valutazioni medie su una scala numerica 1–5 + la sua differenza (tra i prodotti).
Codice R.
È molto facile da fare in R:
> ratings = c("very bad", "bad", "okay", "good", "very good")
> d = data.frame(
customer = 1:15,
product1 = factor(c(5, 4, 3, 5, 2, 3, 2, 5, 4, 4, 3, 5, 4, 5, 5),
levels=1:5, labels=ratings),
product2 = factor(c(1, 2, 2, 3, 5, 4, 3, 1, 4, 5, 3, 4, 4, 3, 3),
levels=1:5, labels=ratings))
> head(d)
customer product1 product2
1 1 very good very bad
2 2 good bad
3 3 okay bad
4 4 very good okay
5 5 bad very good
6 6 okay good
Per prima cosa controlliamo le valutazioni medie:
> mean(as.numeric(d$product1))
[1] 3.9333
> mean(as.numeric(d$product2))
[1] 3.1333
E il test t ci dà:
> t.test(as.numeric(d$product1),
as.numeric(d$product2), paired=TRUE)
Paired t-test
data: as.numeric(d$product1) and as.numeric(d$product2)
t = 1.6, df = 14, p-value = 0.13
alternative hypothesis: true difference in means is not equal to 0
95 percent confidence interval:
-0.27137 1.87137
sample estimates:
mean of the differences
0.8
p
Dati falsi?
Curiosamente, e inaspettatamente, un test t non accoppiato fornisce un valore p inferiore .
> t.test(as.numeric(d$product1),
as.numeric(d$product2), paired=FALSE)
Welch Two Sample t-test
data: as.numeric(d$product1) and as.numeric(d$product2)
t = 1.86, df = 27.6, p-value = 0.073
[…]
Ciò suggerisce che i dati di esempio sono falsi. Per i dati reali, ci si aspetterebbe una correlazione (abbastanza alta) positiva tra le valutazioni dello stesso cliente. Qui la correlazione è negativa (anche se non statisticamente significativa):
> cor.test(as.numeric(d$product1), as.numeric(d$product2))
Pearson's product-moment correlation
data: as.numeric(d$product1) and as.numeric(d$product2)
t = -1.38, df = 13, p-value = 0.19
alternative hypothesis: true correlation is not equal to 0
95 percent confidence interval:
-0.73537 0.18897
sample estimates:
cor
-0.35794
Dati mancanti
Quando non tutti i clienti hanno valutato entrambi i prodotti (ovvero dati non bilanciati), un approccio migliore sta usando un modello a effetti misti:
Prima convertiamo i dati in forma numerica:
> d2 = d
> d2[,-1] = lapply(d2[,-1], as.numeric)
E convertilo in forma 'lunga':
> library(tidyr)
> d3 = gather(d2, product, value, -customer)
E infine montare un modello a effetti misti con il cliente come effetto casuale:
> l = lme(value~product, random=~1|customer, data=d3)
> summary(l)
Linear mixed-effects model fit by REML
Data: d3
AIC BIC logLik
101.91 107.24 -46.957
Random effects:
Formula: ~1 | customer
(Intercept) Residual
StdDev: 3.7259e-05 1.1751
Fixed effects: value ~ product
Value Std.Error DF t-value p-value
(Intercept) 3.9333 0.30342 14 12.9633 0.0000
productproduct2 -0.8000 0.42910 14 -1.8644 0.0834
[…]
p
Sommario
In sintesi, utilizzare il test t associato . Quindi ottieni stime facili da interpretare (medie numeriche semplici).
Se non tutti i clienti hanno valutato entrambi i prodotti, utilizzare invece un modello di effetti misti. (Ciò fornirà approssimativamente gli stessi risultati del test t associato quando tutti hanno valutato entrambi i prodotti, quindi è consigliabile utilizzarlo sempre.)