Perché R-quadrato regolato inferiore a R-quadrato se R-quadrato regolato predice meglio il modello?


15

Per quanto ho capito, spiega quanto bene il modello preveda l'osservazione. rettificato è quello che tiene conto di più osservazioni (o gradi di libertà). Quindi, Adjusted R ^ 2 predice meglio il modello? Allora perché è inferiore a R ^ 2R2R2R2R2 ? Sembra che dovrebbe essere spesso di più.

Risposte:


30

R2 mostra la relazione lineare tra le variabili indipendenti e la variabile dipendente. È definito come 1SSESSTO che è la somma degli errori quadrati divisa per la somma totale dei quadrati. SSTO=SSE+SSR che sono l'errore totale e la somma totale dei quadrati di regressione. Man mano che vengono aggiunte variabili indipendenti, SSR continuerà a salire (e poiché SSTO è fisso) SSE diminuirà e R2 aumenterà continuamente indipendentemente da quanto siano preziose le variabili aggiunte.

L' R2 rettificato R2sta tentando di rendere conto del restringimento statistico. I modelli con tonnellate di predittori tendono ad avere prestazioni migliori nel campione rispetto a quando testati fuori campione. L' R2 "penalizza" per l'aggiunta delle variabili predittive extra che non migliorano il modello esistente. Può essere utile nella selezione del modello. R ^ 2 rettificato R2sarà uguale a R2 per una variabile predittore. Man mano che aggiungi le variabili, sarà più piccola di R2 .


Non è chiaro come il quadrato R regolato raggiunga le proprietà appuntite. Cioè, qual è la formula e come causa le proprietà?
Alexey Voytenko,

Adj R ^ 2 = 1 - ((n -1) / (n - k -1)) (1 - R ^ 2)
mountainclimber

Dove k = # di variabili indipendenti, n = # osservazioni
mountainclimber,

tentando di rendere conto del restringimento statistico - forse per eccesso di adattamento?
Richard Hardy,

-1

R ^ 2 spiega la proporzione della variazione nella variabile dipendente (Y) spiegata dalle variabili indipendenti (X) per un modello di regressione lineare.

Mentre R ^ 2 aggiustato indica la proporzione della variazione nella variabile dipendente (Y) spiegata da più di 1 variabili indipendenti (X) per un modello di regressione lineare.


1
La distinzione tra "variabili indipendenti" e "più di 1 variabili indipendenti" non è chiara. Inoltre, citando Andy dal basso, "In realtà non aggiungi nuove informazioni a ciò che è stato fornito in precedenza."
ameba dice di reintegrare Monica il

-2

L'R-Squared aumenta anche quando si aggiungono variabili che non sono correlate alla variabile dipendente, ma l'R-Squared aggiustato si prende cura di ciò poiché diminuisce ogni volta che si aggiungono variabili che non sono correlate alla variabile dipendente, quindi dopo aver cura è probabile diminuire.


3
Dato che questa domanda ha già una risposta accettata, questo dovrebbe essere più di un commento. In realtà non aggiungi nuove informazioni a ciò che è stato fornito prima.
Andy,
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.