Perché Anova () e drop1 () hanno fornito risposte diverse per i GLMM?


10

Ho un GLMM del modulo:

lmer(present? ~ factor1 + factor2 + continuous + factor1*continuous + 
                (1 | factor3), family=binomial)

Quando uso drop1(model, test="Chi"), ottengo risultati diversi rispetto a quelli che utilizzo Anova(model, type="III")dal pacchetto auto o summary(model). Questi ultimi due danno le stesse risposte.

Usando un mucchio di dati fabbricati, ho scoperto che questi due metodi normalmente non differiscono. Forniscono la stessa risposta per modelli lineari bilanciati, modelli lineari sbilanciati (dove disuguali n in gruppi diversi) e per modelli lineari generalizzati bilanciati, ma non per modelli misti lineari generalizzati bilanciati. Quindi sembra che solo nei casi in cui sono inclusi fattori casuali questa discordia si manifesta.

  • Perché c'è una discrepanza tra questi due metodi?
  • Quando si utilizza GLMM dovrebbe Anova()o deve drop1()essere usato?
  • La differenza tra questi due è piuttosto lieve, almeno per i miei dati. Importa anche quale viene utilizzato?

Risposte:


7

Penso che sia la differenza di quali calcoli vengono calcolati. car::Anovausa i test di Wald, mentre drop1rimette a posto il modello rilasciando termini singoli. John Fox una volta mi scrisse che Wald testava e testava su modelli rimontati usando test del rapporto di verosimiglianza (cioè la strategia didrop1 ) concordano per modelli lineari ma non necessariamente non lineari. Purtroppo questa mail era fuori elenco e non conteneva alcun riferimento. Ma so che il suo libro ha un capitolo sui test di Wald, che potrebbe contenere le informazioni desiderate.

L'aiuto a car::Anova dire:

Le prove di tipo II sono calcolate secondo il principio di marginalità, testando ogni termine dopo tutti gli altri, tranne ignorare i parenti di ordine superiore del termine; i cosiddetti test di tipo III violano la marginalità, testando ogni termine nel modello dopo tutti gli altri. Questa definizione di test di tipo II corrisponde ai test prodotti da SAS per i modelli di analisi della varianza, in cui tutti i predittori sono fattori, ma non più in generale (ovvero quando vi sono predittori quantitativi). Prestare molta attenzione nel formulare il modello per le prove di tipo III, altrimenti le ipotesi verificate non avranno senso.

Sfortunatamente non posso rispondere alla tua seconda o terza domanda, poiché anch'io vorrei saperlo.


Aggiorna commento di riaccensione :

Non esistono test Wald, LR e F per modelli misti generalizzati. Anovaconsente solo "chisq"e "F"test per modelli misti (ovvero "mer"oggetti restituiti da lmer). La sezione sull'utilizzo dice:

## S3 method for class 'mer'
Anova(mod, type=c("II","III", 2, 3), 
    test.statistic=c("chisq", "F"), vcov.=vcov(mod), singular.ok, ...)

Ma poiché mervengono calcolati i test F per gli oggetti pbkrtest, che per la mia conoscenza funziona solo per i modelli misti lineari, i AnovaGLMM dovrebbero sempre tornare chisq(quindi non vedete alcuna differenza).

Aggiornamento sulla domanda:

La mia precedente risposta ha appena cercato di rispondere alla tua domanda principale, la differenza tra Anova()e drop1(). Ma ora capisco che vuoi testare se certi effetti fissi sono significativi o meno. Le domande frequenti sulla modellazione mista R-sig indicano quanto segue:

Test di singoli parametri

Dal peggiore al migliore:

  • Test Z di Wald
  • Per LMM bilanciati e nidificati in cui è possibile calcolare df: Wald t-test
  • Test del rapporto di verosimiglianza, impostando il modello in modo che il parametro possa essere isolato / eliminato (tramite anova o drop1) o tramite il calcolo dei profili di verosimiglianza
  • MCMC o intervalli di confidenza bootstrap parametrici

Test di effetti (ovvero test che diversi parametri sono contemporaneamente zero)

Dal peggiore al migliore:

  • Prove chi-quadro di Wald (ad es. Auto :: Anova)
  • Test del rapporto di verosimiglianza (via anova o drop1)
  • Per LMM bilanciati e annidati in cui è possibile calcolare df: test F condizionali
  • Per gli LMM: test F condizionali con correzione df (ad es. Kenward-Roger nel pacchetto pbkrtest)
  • Confronti di bootstrap MCMC o parametrici o non parametrici (il bootstrap non parametrico deve essere implementato attentamente per tenere conto dei fattori di raggruppamento)

(enfasi aggiunta)

Questo indica che il tuo approccio all'uso car::Anova()di GLMM non è generalmente raccomandato, ma dovrebbe essere usato un approccio usando MCMC o bootstrap. Non so se pvals.fncdal languageRpacchetto si svegli con i GLMM, ma vale la pena provare.


1
Grazie Henrik. Anova () può calcolare tre diversi test: Wald, LR e F. Ho provato tutti e tre, ma non fa alcuna differenza, il che trovo strano. Ho la sensazione che la funzione si rifiuterà di utilizzare i test che ritiene non siano appropriati per i dati ...
Tim.farkas
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.