Il coefficiente di regressione lineare multipla e la correlazione parziale sono direttamente collegati e hanno lo stesso significato (valore p). La r parziale è solo un altro modo di standardizzare il coefficiente, insieme al coefficiente beta (coefficiente di regressione standardizzato) 1 . Quindi, se la variabile dipendente è y e gli indipendenti sono x 1 e x 2 allora1yx1x2
Beta:βx1=ryx1−ryx2rx1x21−r2x1x2
Partial r:ryx1.x2=ryx1−ryx2rx1x2(1−r2yx2)(1−r2x1x2)−−−−−−−−−−−−−−−−√
Vedete che i numeratori sono gli stessi che indicano che entrambe le formule misurano lo stesso effetto unico di . Proverò a spiegare come le due formule siano strutturalmente identiche e come non lo siano.x1
Supponiamo di avere standardizzato z (media 0, varianza 1) tutte e tre le variabili. Il numeratore è quindi uguale alla covarianza tra due tipi di residui : i residui (a) lasciati nella previsione di per x 2 [entrambe le variabili standard] e i residui (b) lasciati nella previsione di x 1 per x 2 [entrambe le variabili standard] . Inoltre, la varianza dei residui (a) è 1 - r 2 y x 2 ; la varianza dei residui (b) è 1 - r 2 x 1 x 2 .yx2x1x21−r2yx21−r2x1x2
La formula per la correlazione parziale appare quindi chiaramente la formula del semplice Pearson , come calcolata in questo caso tra residui (a) e residui (b): Pearson r , lo sappiamo, è covarianza divisa per il denominatore che è la media geometrica di due diverse varianti.rr
Il coefficiente standardizzato beta è strutturalmente come Pearson , solo che il denominatore è la media geometrica di una varianza con il proprio io . La varianza dei residui (a) non è stata conteggiata; è stato sostituito dal secondo conteggio della varianza dei residui (b). Beta è quindi la covarianza dei due residui relativa alla varianza di uno di essi (in particolare, quello relativo al predittore di interesse, x 1 ). Mentre la correlazione parziale, come già notato, è quella stessa covarianza rispetto alla loro varianza ibrida . Entrambi i tipi di coefficiente sono modi per standardizzare l'effetto di x 1 nell'ambiente di altri predittori.rx1x1
Alcune conseguenze numeriche della differenza. Se il quadrato R di regressione multipla di per x 1 e x 2 risulta essere 1, entrambe le correlazioni parziali dei predittori con il dipendente avranno anche 1 valore assoluto (ma i beta non saranno generalmente 1). In effetti, come detto prima, r y x 1 . x 2 è la correlazione tra i residui di e i residui di . Se ciò che non è x 2 in y è esattamente ciò che non è x 2 in x 1yx1x2ryx1.x2y <- x2
x1 <- x2
x2y x2x1allora non c'è nulla in che non sia né x 1 né x 2 : adattamento completo. Qualunque sia la quantità della porzione inspiegabile (per x 2 ) rimasta in y ( 1 - r 2 y x 2 ), se viene catturata in modo relativamente elevato dalla porzione indipendente di x 1 (per 1 - r 2 x 1 x 2 ), r y x 1 . x 2 sarà alto. β x 1yx1x2x2y1−r2yx2x11−r2x1x2ryx1.x2βx1d'altra parte, sarà elevato solo a condizione che la porzione inspiegabile catturata di sia essa stessa una porzione sostanziale di y .yy
Dalle formule di cui sopra si ottiene (ed estendentesi dalla regressione 2-predittore di una regressione con numero arbitrario di predittori ) La formula di conversione tra beta e corrispondente r parziale:x1,x2,x3,...
ryx1.X=βx1var(ex1←X)var(ey←X)−−−−−−−−−−√,
dove sta per la raccolta di tutti i predittori tranne l'attuale ( x 1 ); e y ← X sono i residui della regressione di y di X , ed e x 1 ← X sono i residui della regressione di x 1 di X , le variabili in entrambe queste regressioni li inseriscono standardizzate .Xx1ey←XyXex1←Xx1X
Nota: se abbiamo bisogno di calcolare correlazioni parziali di con ogni predittore x di solito non useremo questa formula che richiede di fare due ulteriori regressioni. Piuttosto, verranno eseguite le operazioni di sweep (spesso utilizzate negli algoritmi di regressione graduale e di tutti i sottoinsiemi) o verrà calcolata la matrice di correlazione anti-immagine .yx
β x 1 = b x 1 σ x 11 è la relazione tra ilbgrezzoe icoefficientiβstandardizzatiin regressione con intercetta.βx1=bx1σx1σybβ