Come rilevare quando un modello di regressione è troppo in forma?


14

Quando sei tu a fare il lavoro, essendo consapevole di ciò che stai facendo, sviluppi la sensazione di quando hai adattato troppo il modello. Per prima cosa, è possibile tenere traccia dell'andamento o del deterioramento nel rettangolo R rettificato del modello. È inoltre possibile tenere traccia di un deterioramento simile nei valori p dei coefficienti di regressione delle variabili principali.

Ma quando leggi semplicemente qualcun altro studia e non hai idea del proprio processo di sviluppo del modello interno, come puoi rilevare chiaramente se un modello è troppo adatto o no.


Solo per lanciare un paio di idee sull'argomento, se lo studio rivela statistiche di regressione standard, potresti concentrarti sulle statistiche t e sui valori p dei coefficienti. Se la RSquare del modello è alta; ma una o più variabili hanno a stat <2.0; questa potrebbe essere una bandiera rossa. Inoltre, se il segno dei coefficienti su alcune delle variabili sfidano la logica, è probabilmente un'altra bandiera rossa. Se lo studio non rivela un periodo di attesa per il modello, potrebbe essere un'altra bandiera rossa. Spero che tu abbia altre idee migliori.
Sympa,

Un modo è vedere come si comporta il modello su altri (ma simili) dati.
Shane,

Risposte:


15

La validazione incrociata e la regolarizzazione sono tecniche abbastanza comuni per prevenire un eccesso di adattamento. Per una breve panoramica, consiglierei le diapositive tutorial di Andrew Moore sull'uso della validazione incrociata ( mirror ) - presta particolare attenzione alle avvertenze. Per maggiori dettagli, leggi sicuramente i capitoli 3 e 7 di EOSL , che trattano in modo approfondito l'argomento e la materia associata.


2
Wow, grazie il tutorial di Andrew Moore sulla validazione incrociata è di classe mondiale.
Sympa,

7

Quando sto adattando un modello da solo, generalmente utilizzo i criteri di informazione durante il processo di adattamento, come AIC o BIC , o in alternativa i test del rapporto di verosimiglianza per i modelli adattati in base alla massima probabilità o il test F per i modelli adattati in base ai minimi quadrati.

Tutti sono concettualmente simili in quanto penalizzano parametri aggiuntivi. Stabiliscono una soglia di "potere esplicativo aggiuntivo" per ogni nuovo parametro aggiunto a un modello. Sono tutti una forma di regolarizzazione .

Per i modelli di altri guardo la sezione dei metodi per vedere se vengono utilizzate tali tecniche e anche usare le regole empiriche, come il numero di osservazioni per parametro - se ci sono circa 5 (o meno) osservazioni per parametro, comincio a chiedermi.

Ricorda sempre che una variabile non deve necessariamente essere "significativa" in un modello per essere importante. Potrei essere un confuso e dovrei essere incluso su quella base se il tuo obiettivo è stimare l'effetto di altre variabili.


Grazie per i collegamenti ai test AIC e BIC. Aggiungono molto valore rispetto al rettangolo R rettificato che fa una cosa simile penalizzando i modelli per l'aggiunta di variabili?
Sympa,

1
@Gaeten, il rettangolo R rettificato aumenterà quando un test F del modello prima vs dopo è significativo, quindi sono equivalenti, tranne per il fatto che il calcolo di un rettangolo R rettificato non restituisce un valore p.
Thylacoleo,

1
@Gaeten - AIC e BIC sono più generici dei test F e del quadrato R rettificato che di solito sono limitati ai modelli adatti ai minimi quadrati. AIC e BIC possono essere utilizzati per qualsiasi modello in cui è possibile calcolare la probabilità e conoscere (o stimare) i gradi di libertà.
Thylacoleo,

Testare un insieme di variabili non è una forma di regolarizzazione (restringimento). E i test danno la tentazione di rimuovere le variabili, il che non ha nulla a che fare con la riduzione del sovradimensionamento.
Frank Harrell,

@FrankHarrell Puoi approfondire questo tuo vecchio commento? Mi sembra che la rimozione di una variabile ridurrebbe l'eccessivo adattamento, a parità di altre condizioni, poiché i gradi di libertà disponibili per l'overfit si riducono. Sono sicuro che mi manca qualche sfumatura qui.
Lepidopterist,

5

Vorrei suggerire che questo è un problema con il modo in cui i risultati sono riportati. Non "battere il tamburo bayesiano" ma avvicinarsi all'incertezza del modello da una prospettiva bayesiana come un problema di inferenza sarebbe di grande aiuto qui. E non deve essere nemmeno un grande cambiamento. Se il rapporto contenesse semplicemente la probabilità che il modello sia vero, ciò sarebbe molto utile. Questa è una quantità facile da approssimare usando BIC. Chiama il BIC per il modello mth . Quindi la probabilità che il modello M sia il modello "vero", dato che i modelli M erano adatti (e che uno dei modelli è vero) è data da:BICmM

=1

P(model m is true|one of the M models is true)wmexp(12BICm)j=1Mwjexp(12BICj)
=11+jmMwjwmexp(12(BICjBICm))

wjwj=1

BICfinal<BICjpd

M1+p+(p1)++(pd+1)=1+p(p1)(pd)(pd1)2

M1+p+(p1)++(d+1)=1+p(p1)d(d1)2

MBICjλBICm=BICjλ

11+(M1)exp(λ2)

λMM

11+p(p1)d(d1)2exp(λ2)

p=50d=20λP0

λ>2log(2(1P0)P0[p(p1)d(d1)])

P0=0.9λ>18.28


+1, questo è davvero intelligente. È pubblicato da qualche parte? Esiste un riferimento "ufficiale" per questo?
gung - Ripristina Monica

@gung - perché grazie. Sfortunatamente, questa era una risposta "retro della busta". Sono sicuro che ci sono problemi, se dovessi investigare più in dettaglio.
probabilityislogic
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.