Ho esaminato la modellazione di effetti misti usando il pacchetto lme4 in R. Uso principalmente il lmer
comando, quindi porrò la mia domanda attraverso il codice che usa quella sintassi. Suppongo che potrebbe essere una domanda semplice generale, è corretto confrontare due modelli costruiti lmer
utilizzando rapporti di probabilità basati su set di dati identici? Credo che la risposta debba essere "no", ma potrei essere errata. Ho letto informazioni contrastanti sul fatto che gli effetti casuali debbano essere uguali o meno, e quale componente degli effetti casuali si intende con quello? Quindi, presenterò alcuni esempi. Li prenderò da dati di misure ripetute usando stimoli di parole, forse qualcosa come Baayen (2008) sarebbe utile nell'interpretazione.
Diciamo che ho un modello in cui ci sono due predittori di effetti fissi, li chiameremo A e B, e alcuni effetti casuali ... parole e soggetti che li hanno percepiti. Potrei costruire un modello come il seguente.
m <- lmer( y ~ A + B + (1|words) + (1|subjects) )
(nota che l'ho lasciato intenzionalmente escluso data =
e supponiamo che intendo sempre dire REML = FALSE
per chiarezza)
Ora, dei seguenti modelli, quali sono OK per confrontare con un rapporto di verosimiglianza con quello sopra e quali non lo sono?
m1 <- lmer( y ~ A + B + (A+B|words) + (1|subjects) )
m2 <- lmer( y ~ A + B + (1|subjects) )
m3 <- lmer( y ~ A + B + (C|words) + (A+B|subjects) )
m4 <- lmer( y ~ A + B + (1|words) )
m5 <- lmer( y ~ A * B + (1|subjects) )
Riconosco che l'interpretazione di alcune di queste differenze può essere difficile o impossibile. Mettiamolo da parte per un secondo. Voglio solo sapere se c'è qualcosa di fondamentale nei cambiamenti qui che preclude la possibilità di un confronto. Voglio anche sapere se, se gli LR sono OK, e anche i confronti AIC.