Il matrice è la "annichilatore" o matrice "residuo maker" associato matrice X . Si chiama "annientatore" perché M X = 0 ( ovviamente per la sua matrice X ). Si è chiamato "caffè residuo" perché M y = e , nella regressione y = X β + e . M = I - X ( X'X )- 1X'XM X =0XM y = e^y = X β+ e
È una matrice simmetrica e idempotente. È usato nella dimostrazione del teorema di Gauss-Markov.
Inoltre, è usato nel teorema di Frisch – Waugh – Lovell , dal quale si possono ottenere risultati per la "regressione partizionata", che dice che nel modello (in forma di matrice)
y = X1β1+ X2β2+ u
abbiamo quello
β^1= ( X'1M2X1)- 1( X'1M2) y
Poiché è idempotente, possiamo riscrivere quanto sopraM2
β^1= ( X'1M2M2X1)- 1( X'1M2M2) y
M2
β^1= ( [ M2X1]'[ M2X1] )- 1( [ M2X1]'[ M2y ]
Ma questo è lo stimatore dei minimi quadrati dal modello
[ M2y ]=[ M2X1] β1+ M2u
M2yyX2
yX2M2X1β^1yX1X2
X1X1M2X1X1X2β^1X1X2YX2
Questa è una parte emblematica della classica algebra dei minimi quadrati.