L'ordine delle variabili esplicative è importante per il calcolo dei coefficienti di regressione?


24

All'inizio pensavo che l'ordine non avesse importanza, ma poi ho letto del processo di ortogonalizzazione di gram-schmidt per il calcolo di coefficienti di regressione multipli, e ora sto ripensandoci.

Secondo il processo gram-schmidt, più tardi una variabile esplicativa viene indicizzata tra le altre variabili, più piccolo è il suo vettore residuo perché da esso vengono sottratti i vettori residui delle variabili precedenti. Di conseguenza, anche il coefficiente di regressione della variabile esplicativa è più piccolo.

Se questo è vero, allora il vettore residuo della variabile in questione sarebbe più grande se fosse indicizzato in precedenza, dal momento che un minor numero di vettori residui sarebbe sottratto da essa. Ciò significa che anche il coefficiente di regressione sarebbe maggiore.

Ok, quindi mi è stato chiesto di chiarire la mia domanda. Quindi ho pubblicato schermate dal testo che mi hanno confuso in primo luogo. Ok, ecco qui.

La mia comprensione è che ci sono almeno due opzioni per calcolare i coefficienti di regressione. La prima opzione è indicata (3.6) nello screenshot seguente.

Il primo modo

Ecco la seconda opzione (ho dovuto usare più screenshot).

Il secondo modo

inserisci qui la descrizione dell'immagine inserisci qui la descrizione dell'immagine

A meno che non stia leggendo male qualcosa (il che è sicuramente possibile), sembra che l'ordine sia importante nella seconda opzione. Importa nella prima opzione? Perché o perché no? O il mio quadro di riferimento è così incasinato che questa non è nemmeno una domanda valida? Inoltre, tutto ciò è in qualche modo correlato alla somma dei quadrati di tipo I rispetto alla somma dei quadrati di tipo II?

Grazie mille in anticipo, sono così confuso!


1
Potresti delineare la procedura esatta su come vengono calcolati i coefficienti? Da quello che so dell'ortogonalizzazione di Gram-Schmidt e di come può essere applicato al problema della regressione, posso presumere che usando la procedura gs è possibile adattarsi alla regressione, ma non ai coefficienti originali. Si noti che l'adattamento di regressione è la proiezione nello spazio delle colonne. Se ortogonali le colonne ottieni la base ortogonale dello spazio che attraversa le colonne, quindi l'adattamento sarà una combinazione lineare di questa base e anche una combinazione lineare di colonne originali. Sarà lo stesso ...
mpiktas,

ma i coefficienti saranno diversi. Questo è perfettamente normale.
mpiktas,

Immagino di essere confuso perché pensavo di aver letto in "Gli elementi dell'apprendimento statistico" che i coefficienti calcolati usando il processo gram-schmidt sarebbero stati gli stessi calcolati usando il processo tradizionale: B = (X'X) ^ - 1 X'y.
Ryan Zotti,

Ecco l'estratto del libro che parla della procedura: "Possiamo vedere la stima [dei coefficienti] come il risultato di due applicazioni della regressione semplice. I passaggi sono: 1. regredisci x su 1 per produrre il residuo z = x - x ̄1; 2. regredire y sulla z residua per dare il coefficiente βˆ1. Questa ricetta generalizza al caso di input p, come mostrato in Algoritmo 3.1. Notare che gli input z0,..., zj − 1 al passo 2 sono ortogonali, quindi i semplici coefficienti di regressione calcolati in realtà ci sono anche i coefficienti di regressione multipla. "
Ryan Zotti,

Diventa un po 'confuso quando copio e incollo nella sezione commenti qui, quindi è probabilmente meglio guardare direttamente la fonte. Le pagine da 53 a 54 di "The Elements of Statistical Learning" sono disponibili gratuitamente per il download sul sito Web di Stanford: www-stat.stanford.edu/~tibs/ElemStatLearn .
Ryan Zotti,

Risposte:


22

Credo che la confusione possa derivare da qualcosa di un po 'più semplice, ma offre una buona opportunità per esaminare alcune questioni correlate.

Si noti che il testo non sostiene che tutti i coefficienti di regressione p i può essere calcolata tramite i residui successivi vettori come β i ? =Y , z iβ^io Ma piuttosto che solo l'ultima uno, β p , può essere calcolato in questo modo!

β^io=?y,ziozio2,
β^p

Il successivo schema di ortogonalizzazione (una forma di ortogonalizzazione di Gram – Schmidt) sta (quasi) producendo una coppia di matrici e G tali che X = Z GZsol dove Z è n × p con colonne ortonormali e G = ( g i j ) è p × p triangolare superiore. Dico "quasi" poiché l'algoritmo specifica solo Z fino alle norme delle colonne, che in generale non saranno una, ma si può fare in modo che l'unità abbia una norma normalizzando le colonne e apportando una semplice regolazione corrispondente alla matrice delle coordinate G .

X=ZG,
Zn×pG=(gij)p×pZG

Supponendo, naturalmente, che ha rango p n , l'unica soluzione ai minimi quadrati è il vettore β che risolve il sistema X T X β = X T yXRn×ppnβ^

XTXβ^=XTy.

Sostituendo e con Z T Z = I (per costruzione), otteniamo G T G β = G T Z T yX=ZGZTZ=I Che è equivalente a G β = Z T y

GTGβ^=GTZTy,
Gβ^=ZTy.

Ora, concentrati sull'ultima riga del sistema lineare. L'unico elemento diverso da zero di nell'ultima riga è g p p . Così, otteniamo che g p p β p = y , z pGgpp Non è difficile vedere (verificarlo come un controllo di comprensione!) Che g p p = z p e quindi questo fornisce la soluzione. (Caveat lector: ho usato z ho già normalizzato di avere unità di norma, mentre nel libro che hannononQuesto spiega il fatto che il libro ha una norma quadrato al denominatore, mentre io ho solo la norma..)

gppβ^p=y,zp.
gpp=zpzi

β^i(p1)

gp1,p1β^p1+gp1,pβ^p=zp1,y,
β^p1=gp1,p11zp1,ygp1,p11gp1,pβ^p.
giiβ^i

XX(r)rβ^rβ^ryxr

Decomposizioni QR generali

X

X=QR,
Xβ^
RTRβ^=RTQTy,
Rβ^=QTy.
Rβ^p

Xy^


6

βjβp

Esercizio 3.4 in ESL

X

Soluzione

X

X=ZΓ,
ZzjΓγij=zi,xjzi2
xj=zj+k=0j1γkjzk.

QRX=QRQRQ=ZD1R=DΓDDjj=zj

β^

(XTX)β^=XTy.
QR
(RTQT)(QR)β^=RTQTyRβ^=QTy

R

Rppβ^p=qp,yzpβ^p=zp1zp,yβ^p=zp,yzp2
β^jβ^p1
Rp1,p1β^p1+Rp1,pβ^p=qp1,yzp1β^p1+zp1γp1,pβ^p=zp11zp1,y
and then solving for β^p1. This process can be repeated for all βj, thus obtaining the regression coefficients in one pass of the Gram-Schmidt procedure.

3

Why not try it and compare? Fit a set of regression coefficients, then change the order and fit them again and see if they differ (other than possible round-off error).

As @mpiktas points out it is not exactly clear what you are doing.

I can see using GS to solve for B in the least squares equation (xx)B=(xy). But then you would be doing the GS on the (xx) matrix, not the original data. In this case the coefficients should be the same (other than possible rounding error).

Another approach of GS in regression is to apply GS to the predictor variables to eliminate colinearity between them. Then the orthogonalized variables are used as the predictors. In this case order matters and the coefficients will be different because the interpretation of the coefficients depends on the order. Consider 2 predictors x1 and x2 and do GS on them in that order then use as predictors. In that case the first coefficient (after the intercept) shows the effect of x1 on y by itself and the second coefficient is the effect of x2 on y after adjusting for x1. Now if you reverse the order of the x's then the first coefficient shows the effect of x2 on y by itself (ignoring x1 rather than adjusting for it) and the second is the effect of x1 adjusting for x2.


I think your last paragraph is probably closest to the source of my confusion -- GS does make the order matter. That's what I thought. I'm still a bit confused, though, because the book I'm reading, called: "The Elements of Statistical Learning" (a Stanford publication that's freely available: www-stat.stanford.edu/~tibs/ElemStatLearn) seems to suggest that GS is equivalent to the standard approach for calculating the coefficients; that is, B = (X'X)^-1 X'y.
Ryan Zotti

And part of what you say confuses me a bit too: "I can see using GS to solve for B in the least squares equation (x′x)^−1 B=(x′y). But then you would be doing the GS on the (x′x) matrix, not the original data." I thought the x'x matrix contained the original data?... At least that's what Elements of Statistical Learning says. It says the x in the x'x is an N by p matrix where N is the number of inputs (observations) and p is the number of dimensions.
Ryan Zotti

If GS is not the standard procedure for calculating the coefficients, then how is collinearity typically treated? How is redundancy (collinearity) typically distributed among the x's? Doesn't collinearity traditionally make the coefficients unstable? Then wouldn't that suggest that the GS process is the standard process? Because the GS process also makes the coefficients unstable -- a smaller residual vector makes the coefficient unstable.
Ryan Zotti

At least that's what the text says, "If xp is highly correlated with some of the other xk’s, the residual vector zp will be close to zero, and from (3.28) the coefficient βˆp will be very unstable."
Ryan Zotti

2
Note that GS is a form of QR decomposition.
cardinal
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.