Sto analizzando un set di dati usando un modello di effetti misti con un effetto fisso (condizione) e due effetti casuali (partecipante a causa del disegno e della coppia all'interno del soggetto). Il modello è stato generato conlme4
pacchetto: exp.model<-lmer(outcome~condition+(1|participant)+(1|pair),data=exp)
.
Successivamente, ho eseguito un test del rapporto di verosimiglianza di questo modello rispetto al modello senza l'effetto fisso (condizione) e ho una differenza significativa. Ci sono 3 condizioni nel mio set di dati, quindi voglio fare un confronto multiplo, ma non sono sicuro di quale metodo utilizzare . Ho trovato una serie di domande simili su CrossValidated e altri forum, ma sono ancora abbastanza confuso.
Da quello che ho visto, le persone hanno suggerito di usare
1. Il lsmeans
pacchetto - lsmeans(exp.model,pairwise~condition)
che mi dà il seguente output:
condition lsmean SE df lower.CL upper.CL
Condition1 0.6538060 0.03272705 47.98 0.5880030 0.7196089
Condition2 0.7027413 0.03272705 47.98 0.6369384 0.7685443
Condition3 0.7580522 0.03272705 47.98 0.6922493 0.8238552
Confidence level used: 0.95
$contrasts
contrast estimate SE df t.ratio p.value
Condition1 - Condition2 -0.04893538 0.03813262 62.07 -1.283 0.4099
Condition1 - Condition3 -0.10424628 0.03813262 62.07 -2.734 0.0219
Condition2 - Condition3 -0.05531090 0.03813262 62.07 -1.450 0.3217
P value adjustment: tukey method for comparing a family of 3 estimates
2. Il multcomp
pacchetto in due modi diversi: usando mcp
glht(exp.model,mcp(condition="Tukey"))
risultante
Simultaneous Tests for General Linear Hypotheses
Multiple Comparisons of Means: Tukey Contrasts
Fit: lmer(formula = outcome ~ condition + (1 | participant) + (1 | pair),
data = exp, REML = FALSE)
Linear Hypotheses:
Estimate Std. Error z value Pr(>|z|)
Condition2 - Condition1 == 0 0.04894 0.03749 1.305 0.392
Condition3 - Condition1 == 0 0.10425 0.03749 2.781 0.015 *
Condition3 - Condition2 == 0 0.05531 0.03749 1.475 0.303
---
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
(Adjusted p values reported -- single-step method)
e usando lsm
glht(exp.model,lsm(pairwise~condition))
risultante in
Note: df set to 62
Simultaneous Tests for General Linear Hypotheses
Fit: lmer(formula = outcome ~ condition + (1 | participant) + (1 | pair),
data = exp, REML = FALSE)
Linear Hypotheses:
Estimate Std. Error t value Pr(>|t|)
Condition1 - Condition2 == 0 -0.04894 0.03749 -1.305 0.3977
Condition1 - Condition3 == 0 -0.10425 0.03749 -2.781 0.0195 *
Condition2 - Condition3 == 0 -0.05531 0.03749 -1.475 0.3098
---
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
(Adjusted p values reported -- single-step method)
Come puoi vedere, i metodi danno risultati diversi. Questa è la prima volta che lavoro con R e statistiche, quindi qualcosa potrebbe andare storto ma non saprei dove. Le mie domande sono:
Quali sono le differenze tra i metodi presentati? Ho letto in una risposta a domande correlate che riguarda i gradi di libertà ( lsmeans
vs. glht
).
Ci sono alcune regole o raccomandazioni su quando usare quale, ad esempio, il metodo 1 è buono per questo tipo di set di dati / modello ecc.? Quale risultato devo segnalare? Senza saperlo, probabilmente andrei semplicemente a segnalare il valore p più alto che ho avuto per giocarlo in sicurezza, ma sarebbe bello avere un motivo migliore. Grazie