Ho un set di dati composto da una serie di conteggi mensili di "stick rotto" da una manciata di siti. Sto cercando di ottenere una singola stima riassuntiva da due diverse tecniche:
Tecnica 1: montare uno "stick rotto" con un Poisson GLM con una variabile indicatore 0/1 e utilizzare una variabile time & time ^ 2 per controllare le tendenze nel tempo. La stima della variabile dell'indicatore 0/1 e la SE sono raggruppate usando un metodo piuttosto semplice su e giù della tecnica dei momenti, oppure usando il pacchetto tlnise in R per ottenere una stima "bayesiana". Questo è simile a quello che Peng e Dominici fanno con i dati sull'inquinamento atmosferico, ma con meno siti (~ una dozzina).
Tecnica 2: abbandonare alcuni dei controlli specifici del sito per le tendenze nel tempo e utilizzare un modello misto lineare. Particolarmente:
lmer(cases ~ indicator + (1+month+I(month^2) + offset(log(p)), family="poisson", data=data)
La mia domanda riguarda gli errori standard che emergono da queste stime. L'errore standard della tecnica 1, che attualmente utilizza un tempo settimanale anziché mensile impostato e quindi dovrebbe avere una maggiore precisione, presenta un errore standard sulla stima di ~ 0,206 per l'approccio Metodo dei momenti e ~ 0,306 per il tempo.
Il metodo lmer fornisce un errore standard di ~ 0,09. Le stime degli effetti sono ragionevolmente vicine, quindi non sembra che si stiano solo concentrando su stime di riepilogo diverse tanto quanto il modello misto è notevolmente più efficiente.
È qualcosa che è ragionevole aspettarsi? In tal caso, perché i modelli misti sono molto più efficienti? Si tratta di un fenomeno generale o di un risultato specifico di questo modello?