Sto analizzando alcuni dati comportamentali usando lme4in R, principalmente seguendo gli eccellenti tutorial di Bodo Winter , ma non capisco se sto gestendo correttamente le interazioni. Peggio ancora, nessun altro coinvolto in questa ricerca utilizza modelli misti, quindi sono un po 'alla deriva quando si tratta di assicurarsi che le cose siano giuste.
Piuttosto che inviare una richiesta di aiuto, ho pensato che avrei dovuto fare del mio meglio per interpretare il problema e quindi chiedere le tue correzioni collettive. Alcuni altri lati sono:
- Durante la scrittura, ho trovato questa domanda , dimostrando che
nlmepiù direttamente dai valori p per i termini di interazione, ma penso che sia ancora valido chiedere in relazionelme4. Livius'la risposta a questa domanda ha fornito collegamenti a molte altre letture, che cercherò di ottenere nei prossimi giorni, quindi commenterò con tutti i progressi che ne conseguiranno.
Nei miei dati, ho una variabile dipendente dv, una conditionmanipolazione (0 = controllo, 1 = condizione sperimentale, che dovrebbe risultare in un valore superiore dv) e anche un prerequisito, etichettato appropriate: le prove codificate 1per questo dovrebbero mostrare l'effetto, ma le prove codificate 0potrebbero no, perché manca un fattore cruciale.
Ho anche incluso due intercettazioni casuali, per subjecte per target, che riflettono i dvvalori correlati all'interno di ogni soggetto e all'interno di ciascuno dei 14 problemi risolti (ogni partecipante ha risolto sia una versione di controllo che una versione sperimentale di ciascun problema).
library(lme4)
data = read.csv("data.csv")
null_model = lmer(dv ~ (1 | subject) + (1 | target), data = data)
mainfx_model = lmer(dv ~ condition + appropriate + (1 | subject) + (1 | target),
data = data)
interaction_model = lmer(dv ~ condition + appropriate + condition*appropriate +
(1 | subject) + (1 | target), data = data)
summary(interaction_model)
Produzione:
## Linear mixed model fit by REML ['lmerMod']
## ...excluded for brevity....
## Random effects:
## Groups Name Variance Std.Dev.
## subject (Intercept) 0.006594 0.0812
## target (Intercept) 0.000557 0.0236
## Residual 0.210172 0.4584
## Number of obs: 690, groups: subject, 38; target, 14
##
## Fixed effects:
## Estimate Std. Error t value
## (Intercept) 0.2518 0.0501 5.03
## conditioncontrol 0.0579 0.0588 0.98
## appropriate -0.0358 0.0595 -0.60
## conditioncontrol:appropriate -0.1553 0.0740 -2.10
##
## Correlation of Fixed Effects:
## ...excluded for brevity.
ANOVA mostra quindi interaction_modeldi essere significativamente più in forma rispetto a mainfx_model, da cui concludo che esiste una significativa interazione presente (p = .035).
anova(mainfx_model, interaction_model)
Produzione:
## ...excluded for brevity....
## Df AIC BIC logLik deviance Chisq Chi Df Pr(>Chisq)
## mainfx_model 6 913 940 -450 901
## interaction_model 7 910 942 -448 896 4.44 1 0.035 *
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
Da lì, isola un sottoinsieme dei dati per i quali appropriateviene soddisfatto il requisito (ovvero, appropriate = 1), e per esso si adatta un modello nullo e un modello che include conditioncome effetto, confronto di nuovo i due modelli utilizzando ANOVA, e lo, trovo che conditionè un predittore significativo.
good_data = data[data$appropriate == 1, ]
good_null_model = lmer(dv ~ (1 | subject) + (1 | target), data = good_data)
good_mainfx_model = lmer(dv ~ condition + (1 | subject) + (1 | target), data = good_data)
anova(good_null_model, good_mainfx_model)
Produzione:
## Data: good_data
## models:
## good_null_model: dv ~ (1 | subject) + (1 | target)
## good_mainfx_model: dv ~ condition + (1 | subject) + (1 | target)
## Df AIC BIC logLik deviance Chisq Chi Df Pr(>Chisq)
## good_null_model 4 491 507 -241 483
## good_mainfx_model 5 487 507 -238 477 5.55 1 0.018 *
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
lme4: stats.stackexchange.com/questions/118416/…