Esiste un nome per questo tipo di bootstrap?


9

Prendi in considerazione un esperimento con più partecipanti umani, ciascuno misurato più volte in due condizioni. Un modello di effetti misti può essere formulato (usando la sintassi lme4 ) come:

fit = lmer(
    formula = measure ~ (1|participant) + condition
)

Ora, supponiamo di voler generare intervalli di confidenza bootstrap per le previsioni di questo modello. Penso di aver escogitato un metodo semplice ed efficiente dal punto di vista computazionale, e sono sicuro di non essere il primo a pensarci, ma ho difficoltà a trovare pubblicazioni precedenti che descrivono questo approccio. Ecco qui:

  1. Adatta il modello (come sopra), chiamalo "modello originale"
  2. Ottieni previsioni dal modello originale, chiamale "previsioni originali"
  3. Ottenere i residui dal modello originale associato a ciascuna risposta di ciascun partecipante
  4. Ricampionare i residui, campionando i partecipanti con la sostituzione
  5. Adatta un residuo lineare di effetti misti con errore gaussiano ai residui , chiamalo "modello provvisorio"
  6. Calcola le previsioni dal modello provvisorio per ogni condizione (queste previsioni saranno molto vicine allo zero), chiamale "previsioni intermedie"
  7. Aggiungi le previsioni intermedie alle previsioni originali, chiama il risultato "ricampiona previsioni"
  8. Ripetere più volte i passaggi da 4 a 7, generando una distribuzione di previsioni di ricampionamento per ogni condizione da cui una volta è possibile calcolare gli elementi della configurazione.

Ho visto procedure di "bootstrap residuo" nel contesto della semplice regressione (cioè non un modello misto) in cui i residui vengono campionati come unità di ricampionamento e quindi aggiunti alle previsioni del modello originale prima di adattare un nuovo modello su ogni iterazione di il bootstrap, ma questo sembra piuttosto diverso dall'approccio che descrivo dove i residui non vengono mai ricampionati, le persone lo sono e solo doposi ottiene il modello provvisorio se entrano in gioco le previsioni del modello originale. Quest'ultima caratteristica ha davvero un vantaggio secondario in quanto, indipendentemente dalla complessità del modello originale, il modello provvisorio può sempre adattarsi come un modello misto lineare gaussiano, che può essere sostanzialmente più veloce in alcuni casi. Ad esempio, recentemente ho avuto dati binomiali e 3 variabili predittive, una delle quali sospettavo avrebbe causato effetti fortemente non lineari, quindi ho dovuto impiegare la modellazione mista additiva generalizzata utilizzando una funzione di collegamento binomiale. Il montaggio del modello originale in questo caso ha richiesto oltre un'ora, mentre il montaggio dell'LMM gaussiano su ogni iterazione ha richiesto solo pochi secondi.

Non voglio davvero rivendicare la priorità su questo se è già una procedura nota, quindi sarei molto grato se qualcuno potesse fornire informazioni su dove questo potrebbe essere stato descritto prima. (Inoltre, se ci sono problemi evidenti con questo approccio, fammelo sapere!)


1
Solo un commento secondario, ma potrebbe essere pertinente. Peter McCullagh ha un articolo a Bernoulli in cui mostra che nessun bootstrap stima correttamente la varianza in un modello a effetti casuali.
cardinale il

@Mike (+1) Questa è una domanda molto ben scritta!
chl

1
Perché non ricampionare i partecipanti con la sostituzione e quindi ricampionare anche i loro dati? Ciò sembra essere più in linea con lo spirito di un modello multilivello con una distribuzione nidificata all'interno di un'altra. Un altro punto è che esiste un potenziale problema con i dati binomiali perché le estremità estreme dei campioni avranno meno probabilità di convergere.
Giovanni

@John: preferisco ricampionare i residui perché (1) è più veloce per quando il modello originale è laborioso da stimare e (2) produce EC che hanno rimosso la variabilità attribuibile alla variabilità tra le medie dei partecipanti. # 2 significa che non devi creare più grafici quando vuoi mostrare dati grezzi e un effetto a misure ripetute; puoi semplicemente tracciare questi CI rimossi tra varianza sui dati grezzi e saranno appropriati per il confronto delle condizioni ripetute all'interno degli individui. Concesso, potrebbe esserci confusione sul significato di tali IC, ma è a questo che servono le didascalie.
Mike Lawrence,

@ John: Potresti approfondire le tue paure riguardo all'applicabilità di questo approccio ai dati binomiali?
Mike Lawrence,

Risposte:


-1

Il mio libro Bootstrap Methods 2nd Edition ha un'enorme bibliografia fino al 2007. Quindi, anche se non tratterò l'argomento nel libro, il riferimento potrebbe essere nella bibliografia. Naturalmente una ricerca su Google con le parole chiave giuste potrebbe essere migliore. Freedman, Peters e Navidi hanno fatto il bootstrap per la previsione della regressione lineare e dei modelli econometrici, ma non sono sicuro di cosa sia stato fatto sul caso del modello misto. Il documento JASA del 1985 di Stine Gli intervalli di previsione Bootstrap per la regressione è qualcosa che troverai molto interessante se non l'hai già visto.

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.