Confronti consentiti di modelli di effetti misti (principalmente effetti casuali)


20

Ho esaminato la modellazione di effetti misti usando il pacchetto lme4 in R. Uso principalmente il lmercomando, quindi porrò la mia domanda attraverso il codice che usa quella sintassi. Suppongo che potrebbe essere una domanda semplice generale, è corretto confrontare due modelli costruiti lmerutilizzando rapporti di probabilità basati su set di dati identici? Credo che la risposta debba essere "no", ma potrei essere errata. Ho letto informazioni contrastanti sul fatto che gli effetti casuali debbano essere uguali o meno, e quale componente degli effetti casuali si intende con quello? Quindi, presenterò alcuni esempi. Li prenderò da dati di misure ripetute usando stimoli di parole, forse qualcosa come Baayen (2008) sarebbe utile nell'interpretazione.

Diciamo che ho un modello in cui ci sono due predittori di effetti fissi, li chiameremo A e B, e alcuni effetti casuali ... parole e soggetti che li hanno percepiti. Potrei costruire un modello come il seguente.

m <- lmer( y ~ A + B + (1|words) + (1|subjects) )

(nota che l'ho lasciato intenzionalmente escluso data =e supponiamo che intendo sempre dire REML = FALSEper chiarezza)

Ora, dei seguenti modelli, quali sono OK per confrontare con un rapporto di verosimiglianza con quello sopra e quali non lo sono?

m1 <- lmer( y ~ A + B + (A+B|words) + (1|subjects) )
m2 <- lmer( y ~ A + B + (1|subjects) )              
m3 <- lmer( y ~ A + B + (C|words) + (A+B|subjects) )
m4 <- lmer( y ~ A + B + (1|words) )                 
m5 <- lmer( y ~ A * B + (1|subjects) )   

Riconosco che l'interpretazione di alcune di queste differenze può essere difficile o impossibile. Mettiamolo da parte per un secondo. Voglio solo sapere se c'è qualcosa di fondamentale nei cambiamenti qui che preclude la possibilità di un confronto. Voglio anche sapere se, se gli LR sono OK, e anche i confronti AIC.



(Ho notato che hai rimosso il tag [test di ipotesi] che ho aggiunto in precedenza. Beh, dipende da te, ma penso sia appropriato: il test del rapporto di verosimiglianza è chiaramente una procedura di test di ipotesi e [modello misto] + [test di ipotesi ] è IMHO una combinazione di tag informativa, vedi stats.stackexchange.com/questions/tagged/… )
amoeba dice

Modificato per rimuovere "test" da LR. LR può essere interpretato senza test e lo rende più parallelo agli AIC e segue meglio il mio reale intento. Grazie per la segnalazione.
John,

Risposte:


13

Utilizzando la massima probabilità, ognuno di questi può essere confrontato con AIC; se gli effetti fissi sono gli stessi ( m1a m4), usando REML o ML va bene, con REML solitamente preferito, ma se sono diversi, può essere usato solo ML. Tuttavia, l'interpretazione è solitamente difficile quando cambiano sia gli effetti fissi che gli effetti casuali, quindi in pratica la maggior parte consiglia di cambiare solo l'uno o l'altro alla volta.

L'uso del test del rapporto di verosimiglianza è possibile ma disordinato perché la consueta approssimazione chi-quadrata non vale quando si verifica se un componente di varianza è zero. Vedi la risposta di Aniko per i dettagli. (Complimenti ad Aniko per aver letto la domanda più attentamente di me e per aver letto la mia risposta originale abbastanza attentamente da notare che ha mancato questo punto. Grazie!)

Pinhiero / Bates è il riferimento classico; descrive il nlmepacchetto, ma la teoria è la stessa. Bene, principalmente lo stesso; Doug Bates ha cambiato le sue raccomandazioni sull'inferenza da quando ha scritto quel libro e le nuove raccomandazioni si riflettono nel lme4pacchetto. Ma questo è più di quello che voglio entrare qui. Un riferimento più leggibile è Weiss (2005), Modeling Longitudinal Data.


i modelli m2 e m4 o m1 e m3 non potevano essere confrontati con il test del rapporto di verosimiglianza. Non sono modelli nidificati.
Macro,

Oops, grazie per averlo colto, @Macro! Vedi modifica.
Aaron - Ripristina Monica il

La domanda riguardava solo il confronto tra i modelli e il modello m, non tra loro. Tuttavia, stai dicendo che i confronti AIC possono essere fatti anche quando non nidificati? Le risposte a questa domanda sembrano contraddire ciò.
Giovanni,

@Giovanni, ho letto quelle risposte ma mi sono perso dove discute di AIC e non nidificato. Sono abbastanza sicuro che vada bene, ma puoi darmi un puntatore più preciso a quel punto nelle risposte?
Aaron - Ripristina Monica il

Ho ridimensionato la risposta, perché hai torto (o almeno fuorviante) sull'applicabilità del test del rapporto di verosimiglianza.
Aniko,

12

mmm4σ2=0

mm212χ12+12χ02χ12

Tuttavia, come affermato da @Aaron, molti esperti non raccomandano di fare un test del rapporto di verosimiglianza come questo. Le alternative possibili sono i criteri di informazione (AIC, BIC, ecc.) O l'avvio di LRT.

[1] Self, SG & Liang, K. Proprietà asintotiche degli stimatori della massima verosimiglianza e test del rapporto di verosimiglianza in condizioni non standard J. Amer. Statist. Assoc., 1987, 82, 605-610.


1
Grazie per le informazioni LR. Non avevo davvero pensato al problema dei limiti di LR durante la realizzazione dei modelli per l'esempio. Ho appena notato che non è chiaro nella tua risposta se i tuoi consigli si applicano a casi semplici come solo il confronto di modelli con diversi effetti fissi (ML stimato ovviamente).
Giovanni,

No, questo problema si presenta solo durante il test dei componenti di varianza, non degli effetti fissi.
Aaron - Ripristina Monica il
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.