Attualmente sto usando il pacchetto R lme4 .
Sto usando un modello lineare di effetti misti con effetti casuali:
library(lme4)
mod1 <- lmer(r1 ~ (1 | site), data = sample_set) #Only random effects
mod2 <- lmer(r1 ~ p1 + (1 | site), data = sample_set) #One fixed effect +
# random effects
mod3 <- lmer(r1 ~ p1 + p2 + (1 | site), data = sample_set) #Two fixed effects +
# random effects
Per confrontare i modelli, sto usando la anova
funzione e osservando le differenze in AIC rispetto al modello AIC più basso:
anova(mod1, mod2, mod3)
Quanto sopra va bene per confrontare i modelli.
Tuttavia, ho anche bisogno di un modo semplice per interpretare la bontà delle misure di adattamento per ciascun modello. Qualcuno ha esperienza con tali misure? Ho fatto alcune ricerche e ci sono articoli di riviste su R al quadrato per gli effetti fissi dei modelli di effetti misti:
- Cheng, J., Edwards, LJ, Maldonado-Molina, MM, Komro, KA e Muller, KE (2010). Analisi dei dati longitudinali reali per persone reali: costruzione di un modello abbastanza buono misto. Statistica in medicina, 29 (4), 504-520. doi: 10.1002 / sim.3775
- Edwards, LJ, Muller, KE, Wolfinger, RD, Qaqish, BF e Schabenberger, O. (2008). Una statistica R2 per effetti fissi nel modello misto lineare. Statistica in medicina, 27 (29), 6137-6157. doi: 10.1002 / sim.3429
Sembra tuttavia che vi siano alcune critiche in merito all'uso di misure come quelle proposte nei documenti di cui sopra.
Qualcuno potrebbe suggerire alcune misure di bontà di adattamento facili da interpretare che potrebbero essere applicate ai miei modelli?
mixed()
nel mio pacchetto afex ( la versione di sviluppo ha anche bootstrap parametrico ). Vedi qui per alcuni riferimenti .
KRmodcomp
dal pacchetto pbkrtest
. Puoi anche utilizzare KRmodcomp
direttamente per confrontare i modelli.