Maindonald descrive un metodo sequenziale basato sulle rotazioni di Givens . (Una rotazione di Givens è una trasformazione ortogonale di due vettori che azzera una data voce in uno dei vettori.) Nel passaggio precedente hai decomposto la matrice di disegno in una matrice triangolare T tramite una trasformazione ortogonale Q in modo che Q X = ( T , 0 ) ′ . (È facile e veloce ottenere i risultati della regressione da una matrice triangolare.) Adiacente ad una nuova riga v sotto X , si estende effettivamente ( T , 0 )XTQQX=(T,0)′vX per una riga diversa da zero, dire t . Il compito è di azzerare questa riga mantenendo le voci nella posizione di T diagonale. Una sequenza di rotazioni di Givens fa questo: la rotazione con la prima fila dizeri T è il primo elemento di t ; quindi la rotazione con la seconda riga di T zeri il secondo elemento e così via. L'effetto è la premoltiplicazione di Q per una serie di rotazioni, che non cambia la sua ortogonalità.( T , 0 )'tTTtTQ
Quando la matrice di progettazione ha colonne (come nel caso della regressione su variabili p più una costante), il numero di rotazioni necessarie non supera p + 1 e ogni rotazione cambia due v + 1 p. La memoria necessaria per T è O ( ( p + 1 ) 2 ) . Quindi questo algoritmo ha un costo computazionale di O ( ( p + 1 ) 2 ) sia nel tempo che nello spazio.p + 1pp + 1p + 1TO ( ( p + 1 )2)O ( ( p + 1 )2)
Un approccio simile consente di determinare l'effetto sulla regressione dell'eliminazione di una riga. Maindonald dà delle formule; così fanno Belsley, Kuh e Welsh . Pertanto, se stai cercando una finestra mobile per la regressione, puoi conservare i dati per la finestra all'interno di un buffer circolare, contiguo al nuovo dato e rilasciando quello vecchio con ogni aggiornamento. Questo raddoppia il tempo di aggiornamento e richiede ulteriore memoria per una finestra di larghezza k . Sembra che 1 / k sarebbe l'analogo del parametro influenza.O ( k ( p + 1 ) )K1 / k
Per il decadimento esponenziale, penso (speculativamente) che potresti adattare questo approccio ai minimi quadrati ponderati, dando a ogni nuovo valore un peso maggiore di 1. Non dovrebbe esserci alcuna necessità di mantenere un buffer di valori precedenti o eliminare qualsiasi vecchio dato.
Riferimenti
JH Maindonald, calcolo statistico. J. Wiley & Sons, 1984. Capitolo 4.
DA Belsley, E. Kuh, RE Welsch, Diagnostica della regressione: identificazione di dati influenti e fonti di collinearità. J. Wiley & Sons, 1980.