Il mio set di dati ( ) ha una variabile dipendente (DV), cinque variabili "baseline" indipendenti (P1, P2, P3, P4, P5) e una variabile di interesse indipendente (Q).
Ho eseguito regressioni lineari OLS per i seguenti due modelli:
DV ~ 1 + P1 + P2 + P3 + P4 + P5
-> R-squared = 0.125
DV ~ 1 + P1 + P2 + P3 + P4 + P5 + Q
-> R-squared = 0.124
Vale a dire, l'aggiunta del predittore Q ha ridotto la quantità di varianza spiegata nel modello lineare. Per quanto ho capito, questo non dovrebbe succedere .
Per essere chiari, questi sono valori R al quadrato e non valori R al quadrato adeguati.
Ho verificato i valori di R-squared che utilizzano Jasp e di Python statsmodels .
C'è qualche motivo per cui potrei vedere questo fenomeno? Forse qualcosa relativo al metodo OLS?