In che modo i modelli di effetti misti (lineari) vengono normalmente confrontati tra loro? So che è possibile utilizzare i test del rapporto di verosimiglianza, ma ciò non funziona se un modello non è un "sottoinsieme" dell'altro corretto?
La stima dei modelli df è sempre semplice? Numero di effetti fissi + numero di componenti di varianza stimati? Ignoriamo le stime degli effetti casuali?
Che dire della convalida? Il mio primo pensiero è la convalida incrociata, ma le pieghe casuali potrebbero non funzionare a causa della struttura dei dati. È appropriata una metodologia di "esclusione di un soggetto / gruppo"? Che dire di lasciare un'osservazione fuori?
Mallows Cp può essere interpretato come una stima dell'errore di predizione dei modelli. La selezione del modello tramite AIC tenta di minimizzare l'errore di previsione (quindi Cp e AIC dovrebbero scegliere lo stesso modello se gli errori sono gaussiani credo). Questo significa che AIC o Cp possono essere usati per scegliere un modello di effetti misti lineari 'ottimale' da una raccolta di alcuni modelli non annidati in termini di errore di predizione? (purché adatti agli stessi dati) Il BIC è ancora più propenso a scegliere il modello "vero" tra i candidati?
Ho anche l'impressione che quando confrontiamo i modelli di effetti misti tramite AIC o BIC contiamo solo gli effetti fissi come "parametri" nel calcolo, non i modelli effettivi df.
Esiste una buona letteratura su questi argomenti? Vale la pena indagare su cAIC o mAIC? Hanno un'applicazione specifica al di fuori di AIC?