Riguardo a 1: Sì, l'aggiunta vi
come moderatore è davvero il modo logico di estendere il test di Egger a modelli più complessi.
In realtà, l'uso delle varianze di campionamento come moderatore è solo una delle possibilità di condurre il "test di regressione per l'asimmetria del diagramma a imbuto". Altri hanno suggerito di usare l'inverso delle varianze di campionamento o gli errori standard (radice quadrata delle varianze di campionamento) o i loro inversi o le dimensioni totali del campione (o alcune sue funzioni) come moderatori. Non è del tutto chiaro quale predittore sia la scelta "migliore" (e questo può dipendere dalla misura del risultato che usi per la tua meta-analisi). Ad esempio, per alcune misure, l'equazione che utilizziamo per approssimare / stimare la varianza di campionamento è in realtà una funzione del risultato osservato, che crea automaticamente una relazione tra i due anche in assenza di distorsioni della pubblicazione (o "distorsioni di piccoli studi" o come vogliamo chiamarlo). In quel caso,
Ma il punto principale è: Sì, il test di regressione può essere facilmente applicato quando si lavora con modelli più complessi aggiungendo un moderatore appropriato al modello.
È discutibile se i grafici a imbuto siano utili o meno quando ci sono strutture multilivello / multivariate alla base dei dati. Ad esempio, gruppi di punti possono raggrupparsi insieme a causa di dipendenze statistiche (che sono spiegate quando si utilizza un modello multilivello / multivariato appropriato), ma nel diagramma a imbuto, i punti sono proprio questo: un mucchio di punti. Ciò rende più difficile l'interpretazione dei grafici a imbuto perché (a meno che non si facciano passi aggiuntivi utilizzando colori o simboli diversi) non è possibile vedere quelle dipendenze intrinseche - non che la maggior parte delle persone (me compreso) sia brava a interpretare i grafici a imbuto anche nel modo più semplice casi (c'è una ricerca empirica che lo dimostra!).
Riguardo a 2: Sì, un sacco di funzioni di adattamento post modello non funzionano attualmente con rma.mv
oggetti modello. Non mi sono ancora dato da fare per implementare questo e alcuni di questi in realtà richiederanno qualche riflessione. Ad esempio, leave1out()
rimuove uno studio alla volta: nel contesto univariato, ciò equivale a rimuovere ogni risultato osservato alla volta, ma che dire dei dati multilivello / multivariato? Rimuovere anche ogni risultato osservato alla volta? O rimuovere set di punti? O rendere disponibili diverse opzioni? Per quanto riguarda il trim-and-fill (lasciando da parte la questione di quanto sia veramente utile questo metodo): estendere il metodo a dati multilivello / multivariato varrebbe la pena di scrivere un intero articolo.
Quindi, è grandioso che tu voglia fare analisi di sensibilità, ma fin d'ora dovrai farlo manualmente. Le analisi di esclusione vengono eseguite facilmente con un semplice ciclo continuo e riflettendo attentamente su ciò che è "uno" (ad esempio, ogni risultato osservato, ogni gruppo / studio). Puoi fare il test di regressione e forse lasciare per ora il trim-and-fill. I residui standardizzati sono disponibili tramite rstandard()
, quindi è possibile esaminare i dati per potenziali valori anomali. Puoi ottenere i valori del cappello tramite hatvalues()
(solo le leve lungo la diagonale o l'intera matrice del cappello ) che ti dà un'indicazione su quali punti hanno una forte influenza sui risultati. Un'altra misura davvero utile in questo contesto è la distanza di Cook , che puoi ottenere cooks.distance()
anche per gli rma.mv
oggetti.