Sto leggendo il documento teorico di Doug Bates sul pacchetto lme4 di R per capire meglio l'astuzia dei modelli misti, e ho trovato un risultato intrigante che mi piacerebbe capire meglio, sull'utilizzo di REML (Limite massima verosimiglianza) per stimare la varianza .
Nella sezione 3.3 sul criterio REML, afferma che l'uso di REML nella stima della varianza è strettamente correlato all'uso di una correzione della libertà durante la stima della varianza dalle deviazioni residue in un modello lineare adattato. In particolare, "sebbene di solito non derivino in questo modo", i gradi di correzione della libertà possono essere derivati stimando la varianza attraverso l'ottimizzazione di un "criterio REML" (Eq. (28)). Il criterio REML è essenzialmente solo la probabilità, ma i parametri di adattamento lineare sono stati eliminati emarginando (invece di impostarli uguali alla stima di adattamento, che darebbe la varianza del campione distorta).
Ho fatto la matematica e verificato il risultato dichiarato per un modello lineare semplice con solo effetti fissi. Ciò con cui sto lottando è l'interpretazione. C'è qualche prospettiva da cui è naturale derivare una stima della varianza ottimizzando una probabilità in cui i parametri di adattamento sono stati emarginati? Sembra una specie di bayesiano, come se stessi pensando alla probabilità come un posteriore e emarginando i parametri di adattamento come se fossero variabili casuali.
O la giustificazione è principalmente solo matematica - funziona nel caso lineare ma è anche generalizzabile?