Considera una semplice regressione (normalità non assunta): dove è con media e deviazione standard . Le stime del quadrato minimo di e non sono correlate?e i 0 σ a b
Considera una semplice regressione (normalità non assunta): dove è con media e deviazione standard . Le stime del quadrato minimo di e non sono correlate?e i 0 σ a b
Risposte:
Questa è una considerazione importante nella progettazione di esperimenti, in cui può essere desiderabile non avere (o pochissimo) correlazione tra le stime e . Tale mancanza di correlazione può essere ottenuta controllando i valori di . b Xi
Per analizzare gli effetti di sulle stime, i valori (che sono vettori di riga di lunghezza ) sono assemblati verticalmente in una matrice , la matrice di progettazione, con tante righe quanti sono i dati e (ovviamente ) due colonne. Gli corrispondenti sono assemblati in un vettore lungo (colonna) . In questi termini, scrivendo per i coefficienti assemblati, il modello è ( 1 , X i ) 2 X Y i y β = ( a , b ) ′
Gli sono (di solito) considerati variabili casuali indipendenti le cui varianze sono una costante per alcuni sconosciuti . Le osservazioni dipendenti sono considerate come una realizzazione della variabile casuale valore vettoriale .σ 2 σ > 0 y Y
La soluzione OLS è
supponendo che esista questa matrice inversa. Pertanto, utilizzando le proprietà di base della moltiplicazione della matrice e della covarianza,
La matrice ha solo due righe e due colonne, corrispondenti ai parametri del modello . La correlazione di con è proporzionale agli elementi extra-diagonali di che per Regola di Cramer proporzionali al prodotto scalare dei due colonne di . Poiché una delle colonne è tutta s, il cui prodotto punto con l'altra colonna (costituito da ) è la loro somma, troviamo (uno,b) un b (X'X) - 1 ,X1Xi
b Xi e non sono correlati se e solo la somma (o equivalentemente la media) di è zero.
Questa condizione di ortogonalità spesso si ottiene ricentrando il (sottraendo loro media da ciascuno). Sebbene ciò non altererà la pendenza stimata , cambia l'intercetta stimata . L'importanza o meno dipende dall'applicazione.B un
Questa analisi si applica alla regressione multipla: la matrice di progettazione avrà colonne per variabili indipendenti (una colonna aggiuntiva è composta da s) e sarà un vettore di lunghezza , ma per il resto tutto passa come prima. p 1 β p + 1
Nel linguaggio convenzionale, due colonne di sono chiamate ortogonali quando il loro punto è zero. Quando una colonna di (diciamo la colonna ) è ortogonale a tutte le altre colonne, è un fatto algebrico facilmente dimostrato che tutte le voci fuori diagonale nella riga e nella colonna di sono zero (ovvero, i componenti e per tutti sono zero). Di conseguenza,X i i i ( X ′ X ) - 1 i j j i j ≠ i
Due stime del coefficiente di regressione multipla e non sono correlate ogni volta che una (o entrambe) le colonne corrispondenti della matrice di disegno sono ortogonali a tutte le altre colonne. β j
Molti progetti sperimentali standard consistono nella scelta dei valori delle variabili indipendenti per rendere le colonne reciprocamente ortogonali. Questo "separa" le stime risultanti garantendo - prima che i dati vengano mai raccolti! - che le stime non saranno correlate. (Quando le risposte hanno distribuzioni normali ciò implica che le stime saranno indipendenti, il che semplifica notevolmente la loro interpretazione.)