Prendi in considerazione un esperimento con più partecipanti umani, ciascuno misurato più volte in due condizioni. Un modello di effetti misti può essere formulato (usando la sintassi lme4 ) come:
fit = lmer(
formula = measure ~ (1|participant) + condition
)
Ora, supponiamo di voler generare intervalli di confidenza bootstrap per le previsioni di questo modello. Penso di aver escogitato un metodo semplice ed efficiente dal punto di vista computazionale, e sono sicuro di non essere il primo a pensarci, ma ho difficoltà a trovare pubblicazioni precedenti che descrivono questo approccio. Ecco qui:
- Adatta il modello (come sopra), chiamalo "modello originale"
- Ottieni previsioni dal modello originale, chiamale "previsioni originali"
- Ottenere i residui dal modello originale associato a ciascuna risposta di ciascun partecipante
- Ricampionare i residui, campionando i partecipanti con la sostituzione
- Adatta un residuo lineare di effetti misti con errore gaussiano ai residui , chiamalo "modello provvisorio"
- Calcola le previsioni dal modello provvisorio per ogni condizione (queste previsioni saranno molto vicine allo zero), chiamale "previsioni intermedie"
- Aggiungi le previsioni intermedie alle previsioni originali, chiama il risultato "ricampiona previsioni"
- Ripetere più volte i passaggi da 4 a 7, generando una distribuzione di previsioni di ricampionamento per ogni condizione da cui una volta è possibile calcolare gli elementi della configurazione.
Ho visto procedure di "bootstrap residuo" nel contesto della semplice regressione (cioè non un modello misto) in cui i residui vengono campionati come unità di ricampionamento e quindi aggiunti alle previsioni del modello originale prima di adattare un nuovo modello su ogni iterazione di il bootstrap, ma questo sembra piuttosto diverso dall'approccio che descrivo dove i residui non vengono mai ricampionati, le persone lo sono e solo doposi ottiene il modello provvisorio se entrano in gioco le previsioni del modello originale. Quest'ultima caratteristica ha davvero un vantaggio secondario in quanto, indipendentemente dalla complessità del modello originale, il modello provvisorio può sempre adattarsi come un modello misto lineare gaussiano, che può essere sostanzialmente più veloce in alcuni casi. Ad esempio, recentemente ho avuto dati binomiali e 3 variabili predittive, una delle quali sospettavo avrebbe causato effetti fortemente non lineari, quindi ho dovuto impiegare la modellazione mista additiva generalizzata utilizzando una funzione di collegamento binomiale. Il montaggio del modello originale in questo caso ha richiesto oltre un'ora, mentre il montaggio dell'LMM gaussiano su ogni iterazione ha richiesto solo pochi secondi.
Non voglio davvero rivendicare la priorità su questo se è già una procedura nota, quindi sarei molto grato se qualcuno potesse fornire informazioni su dove questo potrebbe essere stato descritto prima. (Inoltre, se ci sono problemi evidenti con questo approccio, fammelo sapere!)