Qual è la correlazione attesa tra la variabile residua e quella dipendente?


26

Nella regressione lineare multipla, posso capire che le correlazioni tra residuo e predittori sono zero, ma qual è la correlazione attesa tra residuo e variabile criterio? Dovrebbe essere zero o fortemente correlato? Qual'è il significato di questo?


4
Che cos'è una "variabile criterio" ??
whuber

2
@whuber Immagino che Jfly si riferisca alla risposta / risultato / dipendente / ecc. variabile. davidmlane.com/hyperstat/A101702.html È interessante vedere i molti nomi di tali variabili: en.wikipedia.org/wiki/…
Jeromy Anglim

@Jeromy Grazie! Avevo indovinato che era il significato, ma non ero sicuro. Questo è un nuovo termine per me - e per Wikipedia, evidentemente.
whuber

Avrei pensato che sarebbe stato uguale a o qualcosa di simile, comeE [ R 2 ] E[R2]R 2 = [ c o r r ( y , y ) ] 2R2=[corr(y,y^)]2
Probislogic

y = f ( x ) + ey=f(x)+e , dove è la funzione di regressione, è errore, e . Quindi . Questa è la statistica di esempio; il suo valore atteso sarebbe simile ma più disordinato. f fe eC o v ( f ( x ) , e ) = 0 Cov(f(x),e)=0C o r r ( y , e ) = S D ( e ) / S D ( y ) = 1 - R 2Corr(y,e)=SD(e)/SD(y)=1R2
Ray Koopman,

Risposte:


20

Nel modello di regressione:

y i = x i β + u i

yi=xiβ+ui

il solito presupposto è che , è un campione iid. presupposto che ed ha un rango massimo, lo stimatore ordinario dei minimi quadrati:( Y i , Ix i , u i ) i = 1 , . . . , n E x i u i = 0 E ( x i x i )(yi,xi,ui)i=1,...,nExiui=0E(xixi)

Β =( n Σ i = 1 x i x ' i )-1Σi=1xiyi

βˆ=(i=1nxixi)1i=1xiyi

è coerente e asintoticamente normale. La covarianza prevista tra un residuo e la variabile di risposta è quindi:

E y i u i = E ( x i β + u i ) u i = E u 2 i

Eyiui=E(xiβ+ui)ui=Eu2i

Se supponiamo inoltre che ed , possiamo calcolare la covarianza attesa tra e la sua regressione residua:E(ui|x1,...,xn)=0E(ui|x1,...,xn)=0E(u2i|x1,...,xn)=σ2E(u2i|x1,...,xn)=σ2yiyi

Eyiˆui=Eyi(yixiˆβ)=E(xiβ+ui)(uixi(ˆββ))=E(u2i)(1Exi(nj=1xjxj)1xi)

Eyiuˆi=Eyi(yixiβˆ)=E(xiβ+ui)(uixi(βˆβ))=E(u2i)1Exi(j=1nxjxj)1xi

Ora per ottenere la correlazione dobbiamo calcolare e . Si scopre cheVar(yi)Var(yi)Var(ˆui)Var(u^i)

Var(ˆui)=E(yiˆui),

Var(u^i)=E(yiu^i),

quindi

Corr(yi,ˆui)=1Exi(nj=1xjxj)1xi

Corr(yi,u^i)=1Exi(j=1nxjxj)1xi

Ora il termine viene dalla diagonale della matrice del cappello , dove . La matrice è idempotente, quindi soddisfa una proprietà seguentexi(nj=1xjxj)1xixi(nj=1xjxj)1xiH=X(XX)1XH=X(XX)1XX=[xi,...,xN]X=[xi,...,xN]HH

trace(H)=ihii=rank(H),

trace(H)=ihii=rank(H),

dove è il termine diagonale di . Il è il numero di variabili linearmente indipendenti in , che di solito è il numero di variabili. Chiamiamolo . Il numero di è la dimensione del campione . Quindi abbiamo termini non negativi che dovrebbero riassumere fino a . Di solito è molto più grande di , quindi molto sarebbe vicino allo zero, il che significa che la correlazione tra la variabile residua e la risposta sarebbe vicina a 1 per la maggior parte delle osservazioni.hiihiiHHrank(H)rank(H)xixipphiihiiNNNNppNNpphiihii

Il termine viene utilizzato anche in vari diagnostici di regressione per determinare osservazioni influenti.hiihii


10
+1 Questa è esattamente la giusta analisi. Ma perché non finisci il lavoro e rispondi alla domanda? L'OP chiede se questa correlazione è "alta" e cosa potrebbe significare .
whuber

Quindi potresti dire che la correlazione è approssimativamente1pN1pN
Probislogic

1
La correlazione è diversa per ogni osservazione, ma sì, puoi dirlo, a condizione che X non abbia valori anomali.
mpiktas,

21

La correlazione dipende da R 2 . Se R 2 è alto, significa che gran parte della variazione nella variabile dipendente può essere attribuita alla variazione nelle variabili indipendenti e NON al termine dell'errore.R2R2

Tuttavia, se R 2 è basso, significa che gran parte della variazione nella variabile dipendente non è correlata alla variazione nelle variabili indipendenti e quindi deve essere correlata al termine di errore.R2

Considera il seguente modello:

Y = X β + ε , dove Y e X non sono correlati.Y=Xβ+εYX

Supponendo condizioni di regolarità sufficienti per il CLT da mantenere.

Β convergono a0, poichéXeYsono incorrelati. Pertanto Y =X β sarà sempre zero. Così, l'ε:=Y - Y =Y-0=Y. εeYsono perfettamente correlati !!!β^0XYY^=Xβ^ε:=YY^=Y0=YεY

Tenendo tutto il resto fisso, aumentando R 2 diminuirà la correlazione tra l'errore e la dipendenza. Una forte correlazione non è necessariamente causa di allarme. Questo può semplicemente significare che il processo sottostante è rumoroso. Tuttavia, una R 2 bassa (e quindi un'elevata correlazione tra errore e dipendente) può essere dovuta a errata specificazione del modello.R2R2


Trovo questa risposta confusione, in parte attraverso l'uso di " ε " per stare in piedi, sia per i termini di errore nel modello e dei residui Y - Y . Un altro punto di confusione è il riferimento a "convergere a" anche se non vi è alcuna sequenza di qualcosa in evidenza a cui potrebbe essere applicata la convergenza. L'assunto che X e Y non siano correlati sembra speciale e non illustrativo di circostanze generali. Tutto ciò oscura qualunque cosa questa risposta stia cercando di dire o quali affermazioni siano generalmente vere. εYY^XY
whuber

17

Trovo questo argomento piuttosto interessante e le risposte attuali sono purtroppo incomplete o in parte fuorvianti, nonostante la pertinenza e l'elevata popolarità di questa domanda.

Per definizione del quadro OLS classica dovrebbe esserci alcuna relazione tra y e uŷ u^ , poiché i residui ottenuti sono per costruzione incorrelati con y quando derivante lo stimatore OLS. La varianza che minimizza la proprietà sotto l'omoschedasticità assicura che l'errore residuo sia distribuito casualmente attorno ai valori adattati. Questo può essere mostrato formalmente da:ŷ 

Cov ( y , u | X ) = Cov ( P y , M y | X ) = Cov ( P y , ( I - P ) y | X ) = P Cov ( y , y ) ( I - P ) ' = P σ 2 - P σ 2 = 0

Cov(ŷ ,û |X)=Cov(Py,My|X)=Cov(Py,(IP)y|X)=PCov(y,y)(IP)
=Pσ2Pσ2=0

Dove M e P sono matrici idempotenti definiti come: P = X ( X ' X ) X ' e M = I - P .MPP=X(XX)XM=IP

Questo risultato si basa sulla rigorosa esogeneità e omoschedasticità e praticamente si tiene in grandi campioni. L'intuizione per la loro uncorrelatedness è il seguente: I valori stimati y condizionato X sono centrate attorno u , che sono ritenuti come indipendenti e identicamente distribuite. Tuttavia, qualsiasi deviazione dalla stretta esogeneità e omoschedasticità assunzione potrebbe causare variabili esplicative siano endogeno e stimolare una correlazione latente tra u e y . ŷ Xû û ŷ 

Ora la correlazione tra i residui u e "originale" y è una storia completamente diversa:û y

Cov ( y , u | X ) = Cov ( y M y | x ) = Cov ( y , ( 1 - P ) y ) = Cov ( y , y ) ( 1 - P ) = σ 2 M

Cov(y,û |X)=Cov(yMy|X)=Cov(y,(1P)y)=Cov(y,y)(1P)=σ2M

Alcuni verifica nella teoria e sappiamo che questa matrice di covarianza è identica alla matrice di covarianza del residuo u stessa (prova omessa). Abbiamo:u^

Var ( u ) = σ 2 M = Cov ( y , u | X )

Var(û )=σ2M=Cov(y,û |X)

Se vogliamo calcolare la (scalare) covarianza tra y e u come richiesto dal PO, si ottiene:yu^

COV s c a l a r ( y , u | X ) = Var ( u | X ) = ( Σ u 2 i ) / N

Covscalar(y,û |X)=Var(û |X)=(u2i)/N

(= sommando le voci diagonali della matrice di covarianza e dividendole per N)

La formula sopra indica un punto interessante. Se ci prova il rapporto regredendo y sui residui u (+ costante), il coefficiente di pendenza β u , y = 1 , che può essere facilmente derivare quando si divide l'espressione sopra del Var ( u | X ) .yu^βu^,y=1Var(û |X)

D'altra parte, la correlazione è la covarianza standardizzata dalle rispettive deviazioni standard. Ora, la matrice varianza dei residui è σ 2 M , mentre la varianza di y è σ 2 I . La correlazione Corr ( y , u ) diventa quindi:σ2Myσ2ICorr(y,û )

Corr ( y , u ) = Var ( u )Var ( u ) var ( y ) =Var ( u )Var(y)=Var(û)σ2

Corr(y,û )=Var(û )Var(u^)Var(y)=Var(û )Var(y)=Var(û )σ2

This is the core result which ought to hold in a linear regression. The intuition is that the Corr(y,û)Corr(y,û ) expresses the error between the true variance of the error term and a proxy for the variance based on residuals. Notice that the variance of yy is equal to the variance of ˆyy^ plus the variance of the residuals ˆuu^. So it can be more intuitively rewritten as:

Corr(y,û)=11+Var(^y)Var(û)

Corr(y,û )=11+Var(y)^Var(û )

The are two forces here at work. If we have a great fit of the regression line, the correlation is expected to be low due to Var(û)0Var(û )0. On the other hand, Var(ˆy)Var(y^) is a bit of a fudge to esteem as it is unconditional and a line in parameter space. Comparing an unconditional and conditional variances within a ratio may not be an appropriate indicator after all. Perhaps, that's why it rarely done in practice.

An attempt conclude the question: The correlation between yy and ûû  is positive and relates to the ratio of the variance of the residuals and the variance of the true error term, proxied by the unconditional variance in yy. Hence, it is a bit of a misleading indicator.

Notwithstanding this exercise may give us some intuition on the workings and inherent theoretical assumptions of an OLS regression, we rarely evaluate the correlation between yy and ûû . There are certainly more established tests for checking properties of the true error term. Secondly, keep in mind that the residuals are not the error term, and tests on residuals ûû  that make predictions of the characteristics on the true error term uu are limited and their validity need to be handled with utmost care.

For example, I would like to point out a statement made by a previous poster here. It is said that,

"If your residuals are correlated with your independent variables, then your model is heteroskedastic..."

I think that may not be entirely valid in this context. Believe it or not, but the OLS residuals ûû  are by construction made to be uncorrelated with the independent variable xkxk. To see this, consider:

Xui=XMy=X(IP)y=XyXPy

Xui=XMy=X(IP)y=XyXPy
=XyXX(XX)Xy=XyXy=0
=XyXX(XX)Xy=XyXy=0
Xui=0Cov(X,ui|X)=0Cov(xki,ui|xki)=0
Xui=0Cov(X,ui|X)=0Cov(xki,ui|xki)=0

However, you may have heard claims that an explanatory variable is correlated with the error term. Notice that such claims are based on assumptions about the whole population with a true underlying regression model, that we do not observe first hand. Consequently, checking the correlation between yy and ûû  seems pointless in a linear OLS framework. However, when testing for heteroskedasticity, we take here into account the second conditional moment, for example, we regress the squared residuals on XX or a function of XX, as it is often the case with FGSL estimators. This is different from evaluating the plain correlation. I hope this helps to make matters more clear.


1
Note that we have var(ˆu)var(y)=SSETSS=1R2var(u^)var(y)=SSETSS=1R2 (at least roughly anyway). This gives corr(y,ˆu)=1R2corr(y,u^)=1R2 which is some further intuition about what you mention in later paragraphs.
probabilityislogic

2
What I find interesting about this answer is that the correlation is always positive.
probabilityislogic

You state that Var(y)Var(y) is matrix, yet you divide by it.
mpiktas

@probabilityislogic: Not sure if I can follow your step. It would be then under the squareroot 1+(1/1-R^2), which is (2-R^2)/(1-R^2)? Yet what's true is that it remains positive. The intuition is that if you have a line through a scatterplot, and you regress this line on errors from that line, it should be obvious that as the value y of that line increases the value of the residuals increase as well. This is because the residuals are positively dependent on y by construction.
Majte

@mpiktas: In this case the matrix becomes a scalar as we are dealing y being only in one dimension.
Majte

6

The Adam's answer is wrong. Even with a model that fits data perfectly, you can still get high correlation between residuals and dependent variable. That's the reason no regression book asks you to check this correlation. You can find the answer on Dr. Draper's "Applied Regression Analysis" book.


3
Even if correct, this is more of an assertion than an answer according to CV's standards, @Jeff. Would you mind elaborating / backing up your claim? Even just a page number & edition of Draper & Smith would suffice.
gung - Reinstate Monica

4

So, the residuals are your unexplained variance, the difference between your model's predictions and the actual outcome you're modeling. In practice, few models produced through linear regression will have all residuals close to zero unless linear regression is being used to analyze a mechanical or fixed process.

Ideally, the residuals from your model should be random, meaning they should not be correlated with either your independent or dependent variables (what you term the criterion variable). In linear regression, your error term is normally distributed, so your residuals should also be normally distributed as well. If you have significant outliers, or If your residuals are correlated with either your dependent variable or your independent variables, then you have a problem with your model.

If you have significant outliers and non-normal distribution of your residuals, then the outliers may be skewing your weights (Betas), and I would suggest calculating DFBETAS to check the influence of your observations on your weights. If your residuals are correlated with your dependent variable, then there is a significantly large amount of unexplained variance that you are not accounting for. You may also see this if you're analyzing repeated observations of the same thing, due to autocorrelation. This can be checked for by seeing if your residuals are correlated with your time or index variable. If your residuals are correlated with your independent variables, then your model is heteroskedastic (see: http://en.wikipedia.org/wiki/Heteroscedasticity). You should check (if you haven't already) if your input variables are normally distributed, and if not, then you should consider scaling or transforming your data (the most common kinds are log and square-root) in order to make it more normalized.

In the case of both, your residuals, and your independent variables, you should take a QQ-Plot, as well as perform a Kolmogorov-Smirnov test (this particular implementation is sometimes referred to as the Lilliefors test) to make sure that your values fit a normal distribution.

Three things that are quick and may be helpful in dealing with this problem, are examining the median of your residuals, it should be as close to zero as possible (the mean will almost always be zero as a result of how the error term is fitted in linear regression), a Durbin-Watson test for autocorrelation in your residuals (especially as I mentioned before, if you are looking at multiple observations of the same things), and performing a partial residual plot will help you look for heteroscedasticity and outliers.


Thank you very much. Your explanation is very helpful to me.
Jfly

1
+1 Nice, comprehensive answer. I'm going to nitpick on 2 points. "If your residuals are correlated with your independent variables, then your model is heteroskedastic"--I would say that if the variance of your residuals depends on the level of an independent variable, then you have heteroscedasticity. Also, I have heard the Kolmogorov-Smirnov/Lilliefors tests described as "notoriously unreliable," and in practive I have certainly found this to be true. Better to make a subjective determination based on a Q-Q plot or a simple histogram.
rolando2

4
The claim that "the residuals from your model... should not be correlated with... your... dependent variable" is not generally true, as explained in other answers on this thread. Would you mind correcting this post?
gung - Reinstate Monica

1
(-1) I think this post is not relevant enough to the question asked. It is good as general advice, but perhaps a case of the "right answer to the wrong question".
probabilityislogic
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.