Sovradispersione e alternative di modellizzazione nei modelli a effetto casuale di Poisson con offset


12

Ho incontrato una serie di domande pratiche durante la modellizzazione dei dati di conteggio provenienti dalla ricerca sperimentale utilizzando un esperimento all'interno del soggetto. Descrivo brevemente l'esperimento, i dati e ciò che ho fatto finora, seguito dalle mie domande.

Quattro film diversi sono stati mostrati in sequenza a un campione di intervistati. Dopo ogni film è stata condotta un'intervista di cui abbiamo contato il numero di occorrenze di alcune affermazioni che erano di interesse per la RQ (variabile di conteggio prevista). Abbiamo anche registrato il numero massimo di occorrenze possibili (unità di codifica; variabile offset). Inoltre, diverse caratteristiche dei film sono state misurate su una scala continua, di cui per una abbiamo un'ipotesi causale di un effetto della caratteristica del film sul conteggio delle dichiarazioni mentre le altre sono il controllo (predittori).

La strategia di modellizzazione finora adottata è la seguente:

Stimare un modello di Poisson ad effetto casuale, in cui la variabile causale viene utilizzata come covariata e le altre variabili come covariate di controllo. Questo modello ha un offset uguale a 'log (unità)' (unità di codifica). Gli effetti casuali vengono acquisiti tra i soggetti (i conteggi specifici del film sono nidificati nei soggetti). Troviamo confermata l'ipotesi causale (coefficiente sig. Della variabile causale). In stima abbiamo usato il pacchetto lme4 in R, in particolare la funzione glmer.

Ora ho le seguenti domande. Un problema comune nella regressione di Poisson è la sovradispersione. So che questo può essere testato usando una regressione binomiale negativa e valutando se il suo parametro di dispersione migliora l'adattamento del modello di un semplice modello di Poisson. Tuttavia, non so come farlo in un contesto di effetti casuali.

  • Come devo testare la sovradispersione nella mia situazione? Ho testato la sovradispersione in una semplice regressione binomiale di Poisson / negativa (senza effetti casuali) che so adattarmi. Il test suggerisce la presenza di sovradispersione. Tuttavia, poiché questi modelli non tengono conto del clustering, suppongo che questo test non sia corretto. Inoltre, non sono sicuro del ruolo dell'offset per i test di sovradispersione.
  • Esiste qualcosa di simile a un modello di regressione binomiale a effetto casuale negativo e come devo adattarlo a R?
  • Hai suggerimenti per modelli alternativi che dovrei provare sui dati, ovvero tenendo conto della struttura delle misure ripetute, contando le variabili e l'esposizione (unità di codifica)?

1
per cominciare, controlla la sezione " overdispersion
Ben Bolker

1
Grazie, molto utile! Forse qualcuno vuole compilare una risposta da questa e altre informazioni.
Tomka,

Risposte:


1

[0,)

Anziché verificare la sovradispersione , che non ha alcuna garanzia di ottenere una risposta utile e, sebbene si possano esaminare gli indici di dispersione per quantificare la dispersione, suggerirei più utilmente di cercare una migliore distribuzione usando un'opzione di distribuzione discreta di una ricerca di qualità adatta programma, ad es . la routine TrovaDistribuzione di Mathematica . Quel tipo di ricerca fa un lavoro abbastanza esaustivo nell'indovinare quale lavoro (i) noto (i) noto (i) funziona meglio non solo per mitigare la sovradispersione, ma anche per modellare in modo più utile molte altre caratteristiche dei dati, ad esempio, la bontà di adattamento misurata una dozzina diversi modi.

Per esaminare ulteriormente le mie distribuzioni candidate, esaminerei post hoc i residui per verificare l'omoscedasticità e / o il tipo di distribuzione e anche valutare se le distribuzioni candidate possano essere riconciliate come corrispondenti a una spiegazione fisica dei dati. Il pericolo di questa procedura è identificare una distribuzione incompatibile con la migliore modellizzazione di un set di dati espanso. Il pericolo di non eseguire una procedura post hoc è di assegnare a priori una distribuzione scelta arbitrariamente senza test adeguati (immondizia immondizia). La superiorità del post hocl'approccio è che limita gli errori di adattamento, e questa è anche la sua debolezza, vale a dire, può sottovalutare gli errori di modellazione attraverso la pura casualità mentre vengono tentati molti adattamenti di distribuzioni. Questa è quindi la ragione per esaminare i residui e considerare la fisicità. L' approccio top down o a priori non offre tale controllo post hoc sulla ragionevolezza. Cioè, l'unico metodo per confrontare la fisicità della modellazione con diverse distribuzioni, è confrontarle post hoc . Sorge così la natura della teoria fisica, testiamo un'ipotetica spiegazione dei dati con molti esperimenti prima di accettarli come estenuanti spiegazioni alternative.

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.