Qual è l'importanza della matrice del cappello,


10

Qual è l'importanza della matrice del cappello, , nell'analisi di regressione?H=X(XX)1X

È solo per un calcolo più semplice?


Inoltre, potresti essere più specifico?
Steve S,

@SteveS In realtà voglio sapere perché abbiamo bisogno della matrice per cappelli?
utente 31466

Stai chiedendo perché abbiamo bisogno di avere un nome / simbolo speciale (es. "Hat matrix", " H ") per la matrice o stai chiedendo di più sull'importanza del prodotto matrix sul lato destro?
Steve S,

Risposte:


14

Nello studio della regressione lineare, il punto di partenza di base è il processo di generazione dei dati dove e deterministico. Dopo aver minimizzato il criterio dei minimi quadrati, si trova uno stimatore per , cioè . Dopo aver inserito lo stimatore nella formula iniziale, si ottiene come modello lineare del processo di generazione dei dati. Ora, si può sostituire lo stimatore cony= XB + uX B B B = ( X ' X ) - 1 x ' y y = X BuN(0,σ2I)XB^BB^=(XX)1Xyy^=XB^ y =X(X'X)-1x'y.B^e ottieney^=X(XX)1Xy.

Pertanto, è in realtà una matrice di proiezione. Immagina di prendere tutte le variabili in . Le variabili sono vettori e si estendono su uno spazio. Quindi, se moltiplichi per , proietti i tuoi valori osservati in sullo spazio che viene espanso dalle variabili in . Fornisce le stime per e questa è la ragione per cui si chiama hat matrix e perché ha una tale importanza. Dopotutto, la regressione lineare non è altro che una proiezione e con la matrice di proiezione non possiamo solo calcolare le stime perX H y y X y y uH=X(XX)1XXHyyXyyma anche per e può, ad esempio, verificare se è realmente distribuito normalmente.u

Ho trovato questa bella foto su Internet e visualizza questa proiezione. Si noti che viene utilizzato anziché . Inoltre, l'immagine enfatizza il vettore dei termini di errore ortogonale alla proiezione e quindi non correlato con le stime perβyBy

inserisci qui la descrizione dell'immagine


5

La matrice del cappello è molto utile per alcuni motivi:

  1. Invece di avere , otteniamo quello dove è la matrice del cappello. Questo ci dà che è una mappatura lineare dei valori osservati.y =PyP yy^=Zβ^y^=PyPy^
  2. Dalla matrice del cappello , è facile calcolare i residui . Vediamo che .ε ε = y - y = y - P y = ( I n - P ) yPϵ^ϵ^=yy^=yPy=(InP)y

0

Non è altro che trovare la soluzione "più vicina" per Ax = b dove b non è nello spazio della colonna di A. Proiettiamo b sullo spazio della colonna e risolviamo per Ax (hat) = p dove p è la proiezione di b su spazio della colonna.


1
Tutto questo può essere fatto senza mai calcolare . H
whuber
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.