Quali sono le misure facili da interpretare, la bontà di adattamento per i modelli lineari ad effetti misti?


37

Attualmente sto usando il pacchetto R lme4 .

Sto usando un modello lineare di effetti misti con effetti casuali:

library(lme4)
mod1 <- lmer(r1 ~ (1 | site), data = sample_set) #Only random effects
mod2 <- lmer(r1 ~ p1 + (1 | site), data = sample_set) #One fixed effect + 
            # random effects
mod3 <- lmer(r1 ~ p1 + p2 + (1 | site), data = sample_set) #Two fixed effects + 
            # random effects

Per confrontare i modelli, sto usando la anovafunzione e osservando le differenze in AIC rispetto al modello AIC più basso:

anova(mod1, mod2, mod3)

Quanto sopra va bene per confrontare i modelli.

Tuttavia, ho anche bisogno di un modo semplice per interpretare la bontà delle misure di adattamento per ciascun modello. Qualcuno ha esperienza con tali misure? Ho fatto alcune ricerche e ci sono articoli di riviste su R al quadrato per gli effetti fissi dei modelli di effetti misti:

  • Cheng, J., Edwards, LJ, Maldonado-Molina, MM, Komro, KA e Muller, KE (2010). Analisi dei dati longitudinali reali per persone reali: costruzione di un modello abbastanza buono misto. Statistica in medicina, 29 (4), 504-520. doi: 10.1002 / sim.3775
  • Edwards, LJ, Muller, KE, Wolfinger, RD, Qaqish, BF e Schabenberger, O. (2008). Una statistica R2 per effetti fissi nel modello misto lineare. Statistica in medicina, 27 (29), 6137-6157. doi: 10.1002 / sim.3429

Sembra tuttavia che vi siano alcune critiche in merito all'uso di misure come quelle proposte nei documenti di cui sopra.

Qualcuno potrebbe suggerire alcune misure di bontà di adattamento facili da interpretare che potrebbero essere applicate ai miei modelli?


2
Mi piace molto la domanda, ma usare i test del rapporto di verosimiglianza per determinare se sono necessari effetti fissi o meno non è la strategia raccomandata, vedere le domande frequenti . Quindi quanto sopra non va bene per confrontare i modelli.
Henrik,

Grazie Henrik. Le domande frequenti che hai elencato sono molto utili. Sembra che il campionamento Monteov della catena Markov potrebbe essere una buona strategia per confrontare i miei modelli.
Mjburns,

1
Il problema con MCMC è che puoi avere solo effetti casuali semplici (come nel tuo esempio). Andrei con l'approssimazione di kenward-rogers a gradi di libertà in quanto si applica anche a modelli più complicati. Dai un'occhiata alla funzione mixed()nel mio pacchetto afex ( la versione di sviluppo ha anche bootstrap parametrico ). Vedi qui per alcuni riferimenti .
Henrik,

OK Henrik. Sono riuscito a far funzionare la tua funzione mista () dal pacchetto afex. Potresti per favore consigliarmi su come potrei usare afex per confrontare i modelli? Quali misure potrei usare per decidere se un modello è più plausibile di un altro? Grazie.
Mjburns,

Non è facile rispondere a questa domanda, forse fai una domanda separata fornendo maggiori dettagli. Ma solo brevemente, afex cerca di aiutarti a valutare se determinati effetti (o modelli migliori, incluso questo effetto) sono significativi. A tal fine utilizza KRmodcompdal pacchetto pbkrtest. Puoi anche utilizzare KRmodcompdirettamente per confrontare i modelli.
Henrik,

Risposte:


3

Non esiste una misura della bontà di adattamento facile da interpretare per i modelli misti lineari :)

L'adattamento ad effetto casuale (mod1) può essere misurato da ICCe ICC2(il rapporto tra la varianza spiegata dagli effetti casuali e la varianza residua). Il pacchetto psicometrico R include una funzione per estrarli da un oggetto lme.

È possibile utilizzare R2per valutare l'effetto fisso (mod2, mod3), ma questo può essere complicato: quando due modelli mostrano un R2 simile, è possibile che uno sia più "preciso", ma che sia mascherato dal suo fattore fisso " sottraendo "una componente di varianza maggiore all'effetto casuale. D'altra parte è facile interpretare un R2 maggiore del modello di ordine più elevato (es. Mod3). Nel capitolo di Baayen sui modelli misti c'è una bella discussione su questo. Inoltre, il tutorial è molto chiaro.

Una possibile soluzione è quella di considerare ciascuna in modo variance componentindipendente e quindi usarle per confrontare i modelli.


1
Puoi dirci qual è il riferimento a cui ti riferisci quando dici il capitolo di Baayen?
KH Kim,

sì, il riferimento è rotto!
Curioso l'

Ho trovato questa citazione, non sono sicuro che sia, ma non riesco a ottenere il PDF da nessuna parte: BaayenR. H., Analisi dei dati linguistici: un'introduzione pratica alla statistica usando R. Cambridge: Cambridge University Press, 2008. Pp. 368. ISBN-13: 978-0-521-70918-7. - Volume 37 Numero 2 - Grzegorz Krajewski, Danielle Matthews
Curioso l'

1
Forza ragazzi. Dov'è il tuo google-foo? Fai una ricerca su "baayenCUPstats.pdf: primo successo: sfs.uni-tuebingen.de/~hbaayen/publications/baayenCUPstats.pdf
DWin
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.