Diciamo che abbiamo un modello
mod <- Y ~ X*Condition + (X*Condition|subject)
# Y = logit variable
# X = continuous variable
# Condition = values A and B, dummy coded; the design is repeated
# so all participants go through both Conditions
# subject = random effects for different subjects
summary(model)
Random effects:
Groups Name Variance Std.Dev. Corr
subject (Intercept) 0.85052 0.9222
X 0.08427 0.2903 -1.00
ConditionB 0.54367 0.7373 -0.37 0.37
X:ConditionB 0.14812 0.3849 0.26 -0.26 -0.56
Number of obs: 39401, groups: subject, 219
Fixed effects:
Estimate Std. Error z value Pr(>|z|)
(Intercept) 2.49686 0.06909 36.14 < 2e-16 ***
X -1.03854 0.03812 -27.24 < 2e-16 ***
ConditionB -0.19707 0.06382 -3.09 0.00202 **
X:ConditionB 0.22809 0.05356 4.26 2.06e-05 ***
Qui osserviamo un adattamento singolare, perché la correlazione tra intercetta e x effetti casuali è -1. Ora, secondo questo utile link, un modo per gestire questo modello è rimuovere gli effetti casuali di ordine superiore (ad es. X: ConditionB) e vedere se questo fa la differenza quando si esegue il test per la singolarità. L'altro è usare l'approccio bayesiano, ad esempio il blme
pacchetto per evitare la singolarità.
Qual è il metodo preffered e perché?
Lo sto chiedendo perché l'uso del primo o del secondo porta a risultati diversi: nel primo caso, rimuoverò l'effetto casuale X: ConditionB e non sarò in grado di stimare la correlazione tra gli effetti casuali X e X: ConditionB. D'altra parte, l'uso blme
mi consente di mantenere X: ConditionB e di stimare la correlazione data. Non vedo alcun motivo per cui dovrei anche usare le stime non bayesiane e rimuovere gli effetti casuali quando si verificano singolari adattamenti quando posso stimare tutto con l'approccio bayesiano.
Qualcuno può spiegarmi i vantaggi e i problemi utilizzando entrambi i metodi per gestire singolari accoppiamenti?
Grazie.