Misure ripetute anova: lm vs lmer


10

Sto cercando di riprodurre diversi test di interazione tra con entrambi lme lmersu misure ripetute (2x2x2). Il motivo per cui voglio confrontare entrambi i metodi è perché il GLM di SPSS per misure ripetute produce esattamente gli stessi risultati lmdell'approccio presentato qui, quindi alla fine voglio confrontare SPSS vs R-lmer. Finora sono riuscito a riprodurre (da vicino) solo alcune di queste interazioni.

Di seguito troverai uno script per illustrare meglio il mio punto:

library(data.table)
library(tidyr)
library(lmerTest)
library(MASS)

set.seed(1)

N     <- 100 # number of subjects
sigma <- 1   # popuplation sd
rho   <- .6  # correlation between variables

# X1:   a  a  a  a  b  b  b  b
# X2:   a  a  b  b  a  a  b  b
# X3:   a  b  a  b  a  b  a  b
mu <- c(5, 3, 3, 5, 3, 5, 5, 3) # means

# Simulate the data
sigma.mat <- rep(sigma, length(mu))
S <- matrix(sigma.mat, ncol = length(sigma.mat), nrow = length(sigma.mat))
Sigma <- t(S) * S * rho  
diag(Sigma) <- sigma**2
X <- data.table( mvrnorm(N, mu, Sigma) )
setnames(X, names(X), c("aaa", "aab", "aba", "abb", "baa", "bab", "bba", "bbb"))
X[, id := 1:.N]

# Long format
XL <- data.table( gather(X, key, Y, aaa:bbb) )
XL[, X1 := substr(key, 1, 1)]
XL[, X2 := substr(key, 2, 2)]
XL[, X3 := substr(key, 3, 3)]

# Recode long format (a = +1; b = -1)
XL[, X1c := ifelse(X1 == "a", +1, -1)]
XL[, X2c := ifelse(X2 == "a", +1, -1)]
XL[, X3c := ifelse(X3 == "a", +1, -1)]


### Composite scores to be used with lm
# X2:X3 2-way interaction (for half the data; i.e. when X1 == "a")
X[, X1a_X2.X3 := (aaa - aab) - (aba - abb)]

# X2:X3 2-way interaction (for all the data)
X[, aa := (aaa + baa) / 2]
X[, ab := (aab + bab) / 2]
X[, ba := (aba + bba) / 2]
X[, bb := (abb + bbb) / 2]
X[, X2.X3 := (aa - ab) - (ba - bb)]

# X1:X2:X3 3-way interaction (for all the data)
X[, X1.X2.X3 := ( (aaa - aab) - (aba - abb) ) - ( (baa - bab) - (bba - bbb) )]


### Fit models
# X2:X3 2-way interaction (for half the data; i.e. when X1 == "a")
summary( lm(X1a_X2.X3 ~ 1, X) ) # t = 34.13303
summary( lmer(Y ~ X2c*X3c + (X2c+X3c|id), XL[X1 == "a"]) ) # t = 34.132846  close match
summary( lmer(Y ~ X2c*X3c + (X2c+X3c||id), XL[X1 == "a"]) ) # t = 34.134624  close match

# X2:X3 2-way interaction (for all the data) 
summary( lm(X2.X3 ~ 1, X) ) # t = 0.3075025
summary( lmer(Y ~ X2c*X3c + (X2c+X3c|id), XL) ) # t = 0.1641932
summary( lmer(Y ~ X2c*X3c + (X2c+X3c||id), XL) ) # t = 0.1640710
summary( lmer(Y ~ X2c*X3c + (X2c*X3c|id), XL) ) # t = 0.1641765
anova(   lmer(Y ~ X2c*X3c + (X2c*X3c|id), XL), ddf = "Kenward-Roger" ) # t = 0.1643168
summary( lmer(Y ~ X2c*X3c + (X2c*X3c|id), XL, REML = FALSE) ) # t = 0.1645303
summary( lmer(Y ~ X2c*X3c + (X2c*X3c||id), XL) ) # t = 0.1640704

# X1:X2:X3 3-way interaction (for all the data)
summary( lm(X1.X2.X3 ~ 1, X) ) # t = 46.50177
summary( lmer(Y ~ X1c*X2c*X3c + (X1c*X2c*X3c - X1c:X2c:X3c|id), XL) ) # t = 49.0317599
anova(   lmer(Y ~ X1c*X2c*X3c + (X1c*X2c*X3c - X1c:X2c:X3c|id), XL), ddf = "Kenward-Roger" ) # t = 49.03176
summary( lmer(Y ~ X1c*X2c*X3c + (X1c*X2c*X3c - X1c:X2c:X3c|id), XL, REML = FALSE) ) # t = 49.2677606
summary( lmer(Y ~ X1c*X2c*X3c + (X1c*X2c*X3c - X1c:X2c:X3c||id), XL) ) # t = 46.5193774 close match
summary( lmer(Y ~ X1c*X2c*X3c + (X1c*X2c*X3c|id), XL) ) # unidentifiable
summary( lmer(Y ~ X1c*X2c*X3c + (X1c*X2c*X3c|id), XL,
              control = lmerControl(check.nobs.vs.nRE="ignore")) ) # t = 46.5148684 close match

Come puoi vedere dall'alto, nessuna delle lmstime corrisponde esattamente a lmerquelle. Anche se alcuni dei risultati sono molto simili e possono differire solo per motivi numerici / computazionali. Il divario tra i due metodi di stima è particolarmente ampio per il X2:X3 2-way interaction (for all the data).

La mia domanda è se esiste un modo per ottenere gli stessi risultati esatti con entrambi i metodi e se esiste un modo corretto per eseguire le analisi lmer(anche se potrebbe non corrispondere ai lmrisultati).


Bonus:

Ho notato che l' t valueinterazione con l'interazione a 3 vie è influenzata dal modo in cui i fattori sono codificati, il che mi sembra molto strano:

summary( lmer(Y ~ X1*X2*X3 + (X1*X2*X3 - X1:X2:X3||id), XL) ) # t = 48.36
summary( lmer(Y ~ X1c*X2c*X3c + (X1c*X2c*X3c - X1c:X2c:X3c||id), XL) ) # t = 56.52

1
+1 perché sembra interessante, ma non ho idea di cosa stai facendo qui :) Puoi spiegarmi a parole o in matematica perché queste chiamate lm e lmer dovrebbero produrre gli stessi coefficienti? E qual è la logica dietro tutto questo esercizio?
amoeba,

@amoeba Ho aggiornato il mio post per chiarire lo scopo di questo post. Fondamentalmente, voglio riprodurre i risultati da SPSS (che può essere tradotto in un lmmodello) con lmer, e anche sapere quali sono le analisi corrette lmer per questo tipo di dati.
mat

Il motivo della grande discrepanza nel caso dell'interazione bidirezionale per i dati completi è che si dispone di 2 punti dati per combinazione di parametri. L'intuizione è che la dimensione effettiva del campione per un modello misto è 2 volte più piccola di per lm; Sospetto che sia per questo che la statistica t è circa due volte più piccola in lmer. Probabilmente saresti in grado di osservare lo stesso fenomeno usando un design 2x2 più semplice e osservando gli effetti principali, senza preoccuparti di 2x2x2 e interazioni complicate.
amoeba,

Risposte:


3

Strano, quando uso il tuo ultimo modello, trovo una corrispondenza perfetta, non una corrispondenza ravvicinata:

Fixed effects:
            Estimate Std. Error       df t value Pr(>|t|)    
(Intercept)  3.91221    0.07242 99.00001  54.025   <2e-16 ***
X1c          0.03277    0.05006 99.00000   0.655    0.514    
X2c         -0.04836    0.04644 99.00000  -1.042    0.300    
X3c          0.04248    0.05009 99.00001   0.848    0.398    
X1c:X2c      0.08370    0.08747 98.99998   0.957    0.341    
X1c:X3c     -0.07025    0.08895 98.99994  -0.790    0.432    
X2c:X3c     -0.02957    0.09616 99.00000  -0.308    0.759    
X1c:X2c:X3c -8.14099    0.17507 99.00003 -46.502   <2e-16 ***

1
Giusto per essere chiari, a quale modello ti riferisci?
mat

sommario (lmer (Y ~ X1c X2c X3c + (X1c X2c X3c | id), XL, control = lmerControl (check.nobs.vs.nRE = "ignore")))
user244839

Questo è davvero molto strano! summary( lmer(Y ~ X1c*X2c*X3c + (X1c*X2c*X3c|id), XL, control=lmerControl(check.nobs.vs.nRE="ignore")) )$coefficientsritorna t = 46.5148684per me. Potrebbe essere un problema di versione? Sto usando R version 3.5.3 (2019-03-11)e lmerTest 3.1-0.
mat

Ho le stesse versioni di R & lmerTest di @mat e ottengo gli stessi risultati (anche se con molti avvisi: mancata convergenza, ecc.).
mkt - Ripristina Monica il

1
@mat Forse non ero chiaro - sto ottenendo gli stessi risultati come te! Penso che tu abbia probabilmente ragione che user244839 stia usando una versione diversa da noi.
mkt - Ripristina Monica il
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.