Perché la pendenza è sempre esattamente 1 quando si regrediscono gli errori sui residui usando OLS?


10

Stavo sperimentando la relazione tra gli errori e i residui usando alcune semplici simulazioni in R. Una cosa che ho scoperto è che, indipendentemente dalla dimensione del campione o dalla varianza dell'errore, ottengo sempre esattamente per la pendenza quando si adatta il modello1

errorsβ0+β1×residuals

Ecco la simulazione che stavo facendo:

n <- 10 
s <- 2.7 

x <- rnorm(n) 
e <- rnorm(n,sd=s)
y <- 0.3 + 1.2*x + e

model <- lm(y ~ x) 
r <- model$res 

summary( lm(e ~ r) )

ee rsono altamente (ma non perfettamente) correlati, anche per piccoli campioni, ma non riesco a capire perché ciò avvenga automaticamente. Una spiegazione matematica o geometrica sarebbe apprezzata.


5
Nel triangolo piano OXY, con base OX, le altitudini dei lati YO e XY sono l'altitudine del triangolo stesso. Allo scopo, tali altitudini sono date dai coefficienti di lm(y~r), lm(e~r)e lm(r~r)che pertanto devono essere tutte uguali. Quest'ultimo ovviamente è . Prova tutti e tre questi comandi per vedere. Per far funzionare l'ultimo è necessario crearne una copia , ad esempio . Per ulteriori informazioni sui diagrammi geometrici di regressione, consultare stats.stackexchange.com/a/113207 . 1Rrs<-r;lm(r~s)
whuber

1
Grazie @whuber. Vorresti fare una risposta in modo che io possa accettarla, o forse contrassegnarla come duplicata?
GoF_Logistic

1
Non credo sia un duplicato, quindi ho ampliato il commento in una risposta.
whuber

Risposte:


11

la risposta di Whuber è fantastica! (+1) Ho risolto il problema usando la notazione più familiare per me e ho pensato che valesse la pena includere qui la derivazione (meno interessante, più di routine).

Sia il modello di regressione, perché e il rumore. Quindi la regressione di contro le colonne di ha equazioni normali producendo stimePertanto la regressione ha residui per .X R n × p ε y X X T ( Y - X β ) = 0 , β = ( X T X ) - 1 X T y . r = y - X β = ( I - H ) y = ( I - Hy=Xβ+ϵXRn×pϵyXXT(yXβ^)=0,

β^=(XTX)1XTy.
r=yXβ^=(IH)y=(IH)ϵ,
H=X(XTX)1XT

La regressione di su determina una pendenza stimata data da poiché è simmetrico e idempotente e quasi sicuramente.ϵr

(rTr)1rTϵ=([(IH)ϵ]T[(IH)ϵ])1[(IH)ϵ]Tϵ=ϵT(IH)TϵϵT(IH)T(IH)ϵ=ϵT(IH)ϵϵT(IH)ϵ=1,
IHϵim(X)

Inoltre, questo argomento vale anche se includiamo un'intercettazione quando eseguiamo la regressione degli errori sui residui se un'intercettazione è stata inclusa nella regressione originale, poiché le covariate sono ortogonali (cioè , dalle equazioni normali ).1Tr=0


+1 È sempre bello vedere una soluzione elaborata con cura e chiarezza.
whuber

11

Senza alcuna perdita di generalità concettuale (o pratica), rimuovere innanzitutto la costante dalle variabili come descritto in Come si "controlla esattamente altre variabili" . Sia il regressore, l'errore, la risposta, la stima dei minimi quadrati di e i residui. Tutti questi vettori giacciono sullo stesso piano, permettendoci di disegnarne delle immagini. La situazione può essere resa in questo modo, dove indica l'origine:xeY=βx+ebβr=YbxO

figura

Questa foto è stata costruita a partire con , aggiungendo poi l'errore per la produzione di . L'altitudine è stata quindi ridotta alla base, incontrandola alla stima dei minimi quadrati . Chiaramente l'altitudine è il vettore residuo e quindi è stato etichettato .e Y b x Y - b x rβxeYbxYbxr

La base del triangolo è parallela al vettore regressore . Le altitudini dei lati e sono l'altitudine del triangolo stesso. Per definizione, la residua è perpendicolare alla base: pertanto, si possono trovare distanze dalla base mediante proiezione su . Quindi l'altitudine del triangolo può essere trovata in uno dei tre modi seguenti: regredire contro (trovare l'altezza di ); regredire contro (trovare l'altezza di ) o regredire contro (trovare l'altezza diO Y ( β x ) Y r r Y r Y e r e r r r 1xOY(βx)YrrYrYererrr ). Tutti e tre i valori devono essere tutti uguali (come è possibile verificare eseguendo queste regressioni). Quest'ultimo ovviamente è , QED .1


Per coloro che preferiscono l'algebra, possiamo convertire questa analisi geometrica in un'elegante dimostrazione algebrica. Osserva semplicemente che , e sono tutti congruenti modulo nel sottospazio generato da . Pertanto devono avere proiezioni uguali in qualsiasi spazio ortogonale a , come quello generato da , dove la proiezione di ha coefficiente , QED . (Statisticamente, semplicemente "eliminiamo" il componente di in tutte e tre le espressioni, lasciando in ogni caso.)e = r + ( β - b ) x Y = e + β x = r + ( 2 β - b ) x x x r r 1 x rre=r+(βb)xY=e+βx=r+(2βb)xxxrr1xr

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.