Test della differenza in AIC di due modelli non nidificati


12

Il punto centrale di AIC o di qualsiasi altro criterio di informazione è che meno è meglio. Quindi se ho due modelli M1: y = a0 + XA + e e M2: y = b0 + ZB + u, e se l'AIC del primo (A1) è inferiore a quello del secondo (A2), allora M1 ha una migliore corrispondenza dal punto di vista della teoria dell'informazione. Ma esiste un benchmark di cutoff per la differenza A1-A2? Quanto meno è in realtà meno? In altre parole, esiste un test per (A1-A2) diverso dal solo bulbo oculare?

Modifica: Peter / Dmitrij ... Grazie per aver risposto. In realtà, questo è un caso in cui la mia competenza sostanziale è in conflitto con la mia esperienza statistica. In sostanza, il problema NON è scegliere tra due modelli, ma nel controllare se due variabili che conosco ampiamente equivalenti aggiungano quantità equivalenti di informazioni (in realtà, una variabile nel primo modello e un vettore nel secondo. Pensa al caso di un mucchio di variabili rispetto a un indice di esse.). Come ha sottolineato Dmitrij, la scommessa migliore sembra essere il Cox Test. Ma esiste un modo per testare effettivamente la differenza tra i contenuti informativi dei due modelli?


Potresti anche essere interessato a dare un'occhiata a Wagonmakers et al. (2004). Valutare il mimetismo del modello usando il bootstrap parametrico. Journal of Mathematical Psychology, 48 , 28-50. ( pdf ).
gung - Ripristina Monica

Risposte:


13

La domanda è di curiosità, cioè non sei soddisfatto della mia risposta qui ? Altrimenti...

L'ulteriore indagine su questa domanda delicata ha mostrato che esiste una regola empirica comunemente usata, secondo cui due modelli sono indistinguibili dal criterio se la differenza . Lo stesso che in realtà leggerai nell'articolo di Wikipedia su (nota che il link è cliccabile!). Solo per coloro che non fanno clic sui collegamenti:| A I C 1 - A I C 2 | < 2 A I CAIC|AIC1AIC2|<2AIC

A I C A I CAIC stima il supporto relativo per un modello. Per applicare questo in pratica, iniziamo con una serie di modelli candidati, quindi troviamo i corrispondenti valori dei modelli . Quindi, identificare il valore minimo . La selezione di un modello può quindi essere effettuata come segue.AICAIC

Come regola empirica, i modelli che hanno il loro entro del minimo hanno un supporto sostanziale e dovrebbero essere presi in considerazione nel fare inferenze. I modelli che hanno il loro entro circa del minimo hanno un supporto notevolmente inferiore, mentre i modelli con il loro sopra del minimo non hanno sostanzialmente alcun supporto e potrebbero essere omessi da ulteriori considerazioni o almeno non riescono a spiegare alcune sostanziali variazioni strutturali in i dati.AIC12AIC47AIC>10

Un approccio più generale è il seguente ...

Indichiamo i valori dei modelli candidati da , . Let indica il minimo di questi valori. Quindi può essere interpretato come la probabilità relativa che l' -esimo modello minimizzi la perdita di informazioni (prevista stimata).AICAIC1AIC2,AIC3,,AICRAICmine(AICminAICi)/2i

Ad esempio, supponiamo che ci fossero tre modelli nel set candidato, con valori , e . Quindi il secondo modello è volte più probabile del primo modello per ridurre al minimo la perdita di informazioni, e il terzo modello è volte probabile come il primo modello per ridurre al minimo la perdita di informazioni. In questo caso, potremmo omettere il terzo modello da ulteriori considerazioni e prendere una media ponderata dei primi due modelli, con pesi e , rispettivamente. L'inferenza statistica si baserebbe quindi sul modello multiplo ponderato.AIC100102110e(100102)/2=0.368e(100110)/2=0.00710.368

Bella spiegazione e suggerimenti utili, secondo me. Non aver paura di leggere ciò che è cliccabile!

In aggiunta , una volta nota, è meno preferibile per insiemi di dati di grandi dimensioni. Oltre a potresti trovare utile applicare la versione corretta del bias del criterio (puoi usare questo codice o usare la formula , dove è il numero di parametri stimati). La regola empirica sarà la stessa però. AICBICAICAICcR AICc=AIC+2p(p+1)np1p


Ciao Dmitrij ... Sapevo che l'avresti individuato. In realtà, la tua risposta alla domanda originale ha fatto rotolare questo treno. Ho pensato che questo avrebbe posto un'interessante domanda autonoma. Il problema che sto affrontando è che i test statistici (incluso Cox's Test) sono frequenti e quindi è possibile verificare le differenze tra due modelli con un livello di significatività predefinito. Ma AIC / BIC sono basati sulla verosimiglianza, e mi sembra che i numeri non possano essere confrontati direttamente se non, come sottolineato, per regola empirica. Dato che le misure IC dipendono dalla scala, un valore assoluto (2) può essere problematico, no?
user3671

@utente, Il valore assoluto di non è problematico. Puoi suggerire una probabilità relativa, quindi probabilmente sarai più sicuro di questo rispetto ad un bel valore di . Per effetto di scala intendi quando il criterio è meno distorto in piccoli campioni e coerente in grande? Prova invece coerente e per piccoli campioni sarà anche una buona alternativa. La regola dei pollici è ancora utilizzabile. 22BICAICc
Dmitrij Celov,

1
@DmitrijCelov (+1 qualche tempo fa) bella risposta - grazie per aver incollato il testo, dato che Wikipedia non ha più i punti trattati nei primi due paragrafi. Il paragrafo rimosso è stato citato come p. 446: Burnham, K. P., and Anderson, D.R. (2002). Model Selection and Multimodel Inference: A Practical Information-Theoretic Approach, 2nd ed. Springer-Verlag. ISBN 0-387-95364-7. e la pagina Wiki pre-revisione è qui
James Stanley,

Dovrei notare che non ho letto il libro di Burnham e che il vecchio riferimento Wiki suggeriva che il testo citato era una parafrasi. Cordiali saluti, la pagina Wiki è stata modificata alle 16:52, il 15 aprile 2011.
James Stanley,

Potresti forse aiutare con questa domanda di follow-up? stats.stackexchange.com/questions/349883/…
Tripartio

8

Penso che questo potrebbe essere un tentativo di ottenere ciò che non vuoi davvero.

La selezione del modello non è una scienza. Tranne in rare circostanze, non esiste un modello perfetto né un modello "vero"; raramente esiste persino un modello "migliore". Le discussioni su AIC vs. AICc vs BIC vs. SBC vs. qualunque cosa mi lasciano perplesso. Penso che l'idea sia quella di ottenere dei BUONI modelli. Quindi scegli tra loro sulla base di una combinazione di competenza sostanziale e idee statistiche. Se non si dispone di competenze sostanziali (raramente il caso; molto più raramente di quanto la maggior parte delle persone supponga), scegliere l'AIC più basso (o AICc o altro). Ma di solito hai qualche esperienza, altrimenti perché stai studiando queste variabili particolari?


2
+1 per sottolineare la necessità di competenze sia statistiche che sostanziali.
chl
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.