Ho un esperimento che proverò ad astrarre qui. Immagina di lanciare tre pietre bianche davanti a te e di chiederti di esprimere un giudizio sulla loro posizione. Registro una varietà di proprietà delle pietre e la tua risposta. Lo faccio su una serie di argomenti. Genero due modelli. Uno è che la pietra più vicina a te predice la tua risposta, e l'altra è che il centro geometrico delle pietre predice la tua risposta. Quindi, usando lmer in RI potrebbe scrivere.
mNear <- lmer(resp ~ nearest + (1|subject), REML = FALSE)
mCenter <- lmer(resp ~ center + (1|subject), REML = FALSE)
AGGIORNAMENTO E CAMBIAMENTO - versione più diretta che include numerosi commenti utili
Potrei provare
anova(mNear, mCenter)
Il che non è corretto, ovviamente, perché non sono nidificati e non posso davvero confrontarli in quel modo. Mi aspettavo che anova.mer generasse un errore, ma non è stato così. Ma la possibile nidificazione che potrei provare qui non è naturale e mi lascia ancora con dichiarazioni un po 'meno analitiche. Quando i modelli sono nidificati in modo naturale (ad esempio quadratico su lineare) il test è solo a senso unico. Ma in questo caso cosa significherebbe avere risultati asimmetrici?
Ad esempio, potrei fare un modello tre:
mBoth <- lmer(resp ~ center + nearest + (1|subject), REML = FALSE)
Allora posso Anova.
anova(mCenter, mBoth)
anova(mNearest, mBoth)
Questo è giusto da fare e ora trovo che il centro si aggiunge all'effetto più vicino (il secondo comando) ma BIC in realtà sale quando il più vicino viene aggiunto al centro (correzione per la parsimonia inferiore). Ciò conferma ciò che era sospettato.
Ma questo è sufficiente? Ed è giusto quando il centro e il più vicino sono così fortemente correlati?
Esiste un modo migliore per confrontare analiticamente i modelli quando non si tratta di aggiungere e sottrarre variabili esplicative (gradi di libertà)?