I coefficienti standardizzati nella regressione lineare possono essere utilizzati per stimare ?


9

Sto cercando di interpretare i risultati di un articolo, in cui hanno applicato una regressione multipla per prevedere vari risultati. Tuttavia, i (coefficienti B standardizzati definiti come dove è il dipendente variabile e è un predittore) segnalato non sembra corrispondere :β x 1 = B x 1S D x 1β yx1R2βx1=Bx1SDx1SDyyx1R2

inserisci qui la descrizione dell'immagine

Nonostante di -0,83, -0,29, -0,16, -0,43, 0,25 e -0,29, l' è solo 0,20.R 2βR2

Inoltre, i tre predittori: peso, BMI e percentuale di grasso sono multi-collineari, correlati intorno a r = 0,8-0,9 tra loro all'interno dei sessi.

Il valore di plausibile con questi 'o non esiste una relazione diretta tra ' e ? β β R 2R2ββR2

Inoltre, i problemi con i predittori multicollineari potrebbero influenzare la di un quarto predittore (VO2max), che è correlato intorno a r = 0.4 con le tre variabili sopra menzionate?β


Cosa è in questo contesto? Un coefficiente beta (regressione standardizzata)? O qualcos'altro? Se è così, allora non puoi davvero dire nulla di tutto ciò che ottieni è un'interpretazione in termini di deviazioni standard. Il fatto che il coefficiente implichi effetti di grandi dimensioni, non implica un valore elevatoR 2βR2
Repmat

1
ß sta per coefficienti b standardizzati. Per un predittore di 1 caso ß è uguale a R di Pearson, che è direttamente correlato a R al quadrato, tuttavia in questo caso multivariato, perché un alto ß non implica un alto R al quadrato?
Sakari Jukarainen,

2
No, in un caso di regressore non è uguale alla correlazione di Pearson: . Il rapporto tra s e non è così semplice. β = Cov ( y , x )ββR2β=Cov(y,x)Var(x)Cov(y,x)Var(y)×Var(x)=ρ(y,x)βR2
Richard Hardy,

5
@RichardHardy Sospetto che la confusione sia che Sakari abbia definito il coefficiente di regressione standardizzato . In una regressione lineare bivariata il coefficiente di regressione ( nella notazione di Sakari) è , dove è la correlazione e la deviazione standard. Per standardizzare un coefficiente di regressione dividiamo il coefficiente con la deviazione standard di e moltiplichiamo per quella deviazione standard di , quindi rimane solo la correlazione. Quindi Sakari ha ragione. b r x y s yβb rsyxrxysysxrsyx
Maarten Buis,

Non vedo ancora perché ritieni che ciò sia sbagliato? Se ci sono alcune statistiche riassuntive nel documento, puoi semplicemente controllare se i numeri si sommano. Hai anche fornito la formula per farlo. Non si può concludere, semplicemente perché gli effetti sono grandi in termini approssimativi, che i modelli fanno un buon lavoro nel spiegare la varianza in y.
Repmat

Risposte:


17

L' interpretazione geometrica della regressione dei minimi quadrati ordinari fornisce la necessaria intuizione.

La maggior parte di ciò che dobbiamo sapere può essere visto nel caso di due regressori e con risposta . I coefficienti standardizzati, o "beta", sorgono quando tutti e tre i vettori sono standardizzati su una lunghezza comune (che possiamo considerare unità). Pertanto, e sono vettori unitari in un piano - si trovano sul cerchio unitario - e è un vettore unitario in uno spazio euclideo tridimensionale contenente quel piano. Il valore adattato è la proiezione ortogonale (perpendicolare) di su . Perchéx 2 y x 1 x 2 E 2 y E 3 y y E 2 R 2 yx1x2yx1x2E2yE3y^yE2R2è semplicemente la lunghezza quadrata di , non è nemmeno necessario visualizzare tutte e tre le dimensioni: tutte le informazioni di cui abbiamo bisogno possono essere disegnate su quel piano.y^

Regressori ortogonali

La situazione più bella è quando i regressori sono ortogonali, come nella prima figura.

Figura 1, che mostra i regressori e $ \ hat y $ come vettori in un piano.

In questo e nel resto delle figure disegnerò costantemente il disco dell'unità in bianco e i regressori come frecce nere. punterà sempre direttamente a destra. Le spesse frecce rosse raffigurano i componenti di nelle direzioni e : ovvero e . La lunghezza di è il raggio del cerchio grigio su cui giace - ma ricorda che è ily x 1 x 2 β 1 x 1 β 2 x 2 y R 2x1y^x1x2β1x1β2x2y^R2 quadrato di quella lunghezza.

Il teorema di Pitagora afferma

R2=|y^|2=|β1x1|2+|β2x2|2=β12(1)+β22(1)=β12+β22.

Poiché il Teorema di Pitagora è valido in qualsiasi numero di dimensioni, questo ragionamento si generalizza a qualsiasi numero di regressori, producendo il nostro primo risultato:

Quando i regressori sono ortogonali, uguale alla somma dei quadrati dei beta.R2

Un corollario immediato è che quando c'è un solo regressore - regressione univariata - è il quadrato della pendenza standardizzata.R2

correlata

I regressori negativamente correlati si incontrano ad angoli maggiori di un angolo retto.

Figura 2, che mostra regressori negativamente correlati

È visivamente evidente in questa immagine che la somma dei quadrati dei beta è strettamente maggiore di . Ciò può essere provato algebricamente usando la Legge dei Coseni o lavorando con la soluzione matriciale delle equazioni normali.R2

Rendendo i due regressori quasi paralleli, possiamo posizionare vicino all'origine (per un vicino a ) mentre continua ad avere componenti di grandi dimensioni nella direzione e . Pertanto, non vi è alcun limite a quanto piccolo possa essere .y^R20x1x2R2

figura

Memorizziamo questo ovvio risultato, la nostra seconda generalità:

Quando i regressori sono correlati, può essere arbitrariamente più piccola della somma dei quadrati dei beta.R2

Tuttavia, questa non è una relazione universale, come dimostra la figura successiva.

Figura 3, che mostra regressori negativamente correlati ma i beta hanno segni opposti.

Ora supera rigorosamente la somma dei quadrati dei beta. Avvicinando i due regressori e mantenendo tra loro, possiamo far sì che i beta si avvicinino entrambi a , anche quando è vicino a . Un'ulteriore analisi può richiedere un po 'di algebra: la prendo qui sotto.R2y^1/2R21

Lascio alla tua immaginazione costruire esempi simili con regressori positivamente correlati, che si incontrano quindi ad angoli acuti.

Nota che queste conclusioni sono incomplete: ci sono limiti a quanto meno può essere confrontato con la somma dei quadrati dei beta. In particolare, esaminando attentamente le possibilità, è possibile concludere (per una regressione con due regressori) cheR2

Quando i regressori sono positivamente correlati e i beta hanno un segno comune, o quando i regressori sono negativamente correlati e i beta hanno segni diversi, deve essere almeno grande quanto la somma dei quadrati dei beta. R2


Risultati algebrici

In genere, lascia che i regressori siano (vettori di colonna) e la risposta sia . La standardizzazione significa che (a) ognuno è ortogonale al vettore e (b) hanno lunghezze unitarie:x1,x2,,xpy(1,1,,1)

|xi|2=|y|2=1.

Montare il vettori colonna in un matrice . Le regole della moltiplicazione matriciale implicano questoxin×pX

Σ=XX

è la matrice di correlazione di . I beta sono dati dalle equazioni normali,xi

β=(XX)1Xy=Σ1(Xy).

Inoltre, per definizione, la misura è

y^=Xβ=X(Σ1Xy).

La sua lunghezza quadrata dà per definizione:R2

R2=|y^|2=y^y^=(Xβ)(Xβ)=β(XX)β=βΣβ.

L'analisi geometrica ha suggerito di cercare le disuguaglianze relative a e la somma dei quadrati dei beta,R2

i=1pβi2=ββ.

La norma di qualsiasi matrice è data dalla somma dei quadrati dei suoi coefficienti (sostanzialmente trattando la matrice come un vettore di componenti in uno spazio euclideo),L2Ap2

|A|22=i,jaij2=tr(AA)=tr(AA).

La disuguaglianza di Cauchy-Schwarz implica

R2=tr(R2)=tr(βΣβ)=tr(Σββ)|Σ|2|ββ|2=|Σ|2ββ.

Poiché i coefficienti di correlazione al quadrato non possono superare e ce ne sono solo nella matrice , non possono superare . Perciò1p2p×pΣ|Σ|21×p2=p

R2pββ.

La disuguaglianza si ottiene, ad esempio, quando tutti gli sono perfettamente correlati positivamente.xi

C'è un limite superiore alla grandezza di . Il suo valore medio per regressore, , non può superare la somma dei quadrati dei coefficienti standardizzati.R 2 / pR2R2/p


conclusioni

Cosa possiamo concludere in generale? Evidentemente, le informazioni sulla struttura di correlazione dei regressori così come i segni dei beta potrebbero essere usate sia per legare i possibili valori di o addirittura per calcolarli esattamente. In assenza di informazioni complete, poco si può dire al di là dell'ovvio fatto che quando i regressori sono linearmente indipendenti, un singolo beta diverso da zero implica che è diverso da zero, dimostrando che è diverso da zero.y R 2R2y^R2

Una cosa che possiamo sicuramente concludere dall'output nella domanda è che i dati sono correlati: poiché la somma dei quadrati delle beta, pari a , supera il valore massimo possibile di (ovvero ), ci devono essere alcuni correlazione.R 2 11.1301R21

Un'altra cosa è che, poiché la beta più grande (in termini di dimensioni) è , il cui quadrato è molto superiore a di - possiamo concludere che alcuni dei regressori devono essere correlati negativamente. (In effetti, è probabilmente fortemente correlato negativamente con età, peso e grasso in qualsiasi campione che copre una vasta gamma di valori di quest'ultimo.)0,69 R 2 0,20 VO 20.830.69R20.20VO2max

Se ci fossero solo due regressori, potremmo dedurre molto di più su dalla conoscenza delle correlazioni dei regressori elevati e dall'ispezione dei beta, perché ciò ci consentirebbe di disegnare uno schizzo accurato di come , e deve essere situato. Sfortunatamente, i regressori aggiuntivi in ​​questo problema a sei variabili complicano notevolmente le cose. Nell'analizzare due variabili qualsiasi, dobbiamo "estrarre" o "controllare" gli altri quattro regressori (le "covariate"). In tal modo, abbreviamo tutti , ex 1 x 2 y x 1 x 2 yR2x1x2y^x1x2yda quantità sconosciute (a seconda di come tutte e tre queste siano correlate alle covariate), lasciandoci senza sapere quasi nulla delle dimensioni effettive dei vettori con cui stiamo lavorando.


+1 ma non capisco perché, nel caso non ortogonale, si proietta vettore ortogonale agli assi del predittore, anziché fare in modo che le linee tratteggiate sporgenti siano parallele all'altro predittore. Sembra ingombrante ma penso che capirai cosa intendo. Le tue "proiezioni" (due vettori rossi più piccoli) non sono all'altezza per ottenere il grande vettore rosso . yy^y^
amoeba,

@amoeba Hai ragione. Sono stato troppo frettoloso nel creare queste immagini! Eliminerò (si spera temporaneamente) questo post fino a quando non avrò l'opportunità di correggere il problema. Grazie per averlo sottolineato.
whuber

@Amoeba Ho corretto le immagini e modificato l'analisi per abbinarle. Sebbene i dettagli siano cambiati sostanzialmente, le conclusioni rimangono le stesse.
whuber

1
@amoeba Ancora una volta hai ragione. A un certo rischio di perdere i lettori interessati, ma ora mi sento obbligato a quantificare l'intuizione geometrica, ho stretto questa conclusione e l'ho giustificata con un po 'di algebra. (Confido che l'algebra sia corretta!)
whuber

1
Molte grazie! Come sidenote, VO2max è negativamente correlato con il peso e l'IMC, poiché sono associati a una maggiore massa corporea magra. In detta tabella VO2max corrisponde effettivamente a VO2max diviso per peso (che è un cattivo modo di ridimensionare VO2max in base alle dimensioni del corpo). Il VO2max / peso nella tabella è correlato negativamente con tutti gli altri predittori, ad eccezione del sesso, che potrebbe spiegare l'alto ß ma il basso R-quadrato, come hai detto.
Sakari Jukarainen,
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.