L'aggiunta di un predittore di regressione lineare riduce R al quadrato


10

Il mio set di dati ( ) ha una variabile dipendente (DV), cinque variabili "baseline" indipendenti (P1, P2, P3, P4, P5) e una variabile di interesse indipendente (Q).N10,000

Ho eseguito regressioni lineari OLS per i seguenti due modelli:

DV ~ 1 + P1 + P2 + P3 + P4 + P5
                                  -> R-squared = 0.125

DV ~ 1 + P1 + P2 + P3 + P4 + P5 + Q
                                  -> R-squared = 0.124

Vale a dire, l'aggiunta del predittore Q ha ridotto la quantità di varianza spiegata nel modello lineare. Per quanto ho capito, questo non dovrebbe succedere .

Per essere chiari, questi sono valori R al quadrato e non valori R al quadrato adeguati.

Ho verificato i valori di R-squared che utilizzano Jasp e di Python statsmodels .

C'è qualche motivo per cui potrei vedere questo fenomeno? Forse qualcosa relativo al metodo OLS?


1
problemi numerici? I numeri sono abbastanza vicini tra loro ...

@ user2137591 Questo è quello che sto pensando, ma non ho idea di come verificarlo. La differenza assoluta nei valori del R-quadrato è 0.000513569, che è piccola, ma non così piccola.
Cai,

1
XdetXTXTdet

8
I valori mancanti vengono eliminati automaticamente?
generic_user

1
0.000513569 è un numero molto piccolo: è una variazione dello 0,41 percento. È molto probabilmente un problema numerico. Quello che il Clarinetist sta cercando di dire è che forse la tua matrice di progettazione ha un numero di condizioni scadente e quando si inverte è numericamente instabile ...

Risposte:


25

Potrebbe essere che tu abbia dei valori mancanti Qche vengono eliminati automaticamente? Ciò avrebbe implicazioni sul campione, rendendo le due regressioni non comparabili.

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.