Poiché l'affermazione nella citazione è una raccolta di dichiarazioni sul riscalare le colonne di , potresti anche provarle tutte in una volta. In effetti, non serve altro lavoro per dimostrare una generalizzazione dell'asserzione:X
Quando viene moltiplicato a destra per una matrice invertibile , la nuova stima del coefficiente è uguale a moltiplicata a sinistra per .A β AXUNβ^UNA-1β^UN- 1
Gli unici fatti algebrici di cui hai bisogno sono (quelli facilmente comprovati e noti) che per qualsiasi matrice e per matrici invertibili e . (Una versione più sottile di quest'ultima è necessaria quando si lavora con inversioni generalizzate: per invertibile e e qualsiasi , . ) A B ( A B ) - 1 = B - 1 A - 1 A B A B X ( A X B ) - = B - 1 X( A B )'= B'UN'A B( A B )- 1= B- 1UN- 1UNBUNBX( Una XB )-= B- 1X-UN- 1
Prova algebrica :
β^UN= ( ( XA )'( ( XA ) )-( XA )'y= A- 1( X'X)-( A')- 1UN'y= A- 1β^,
QED. (Affinché questa dimostrazione sia completamente generale, il apice si riferisce a un inverso generalizzato.)-
Prova per geometria :
Date le basi ed di e , rispettivamente, rappresenta una trasformazione lineare da a . La moltiplicazione a destra di per può essere considerata tale da lasciare fissa questa trasformazione ma cambiando in (ovvero, nelle colonne di ). Sotto quel cambio di base, la rappresentazione di qualsiasi vettore deve cambiare tramite la moltiplicazione a sinistra di ,E n R n R p X R p R n X A E p A E p A ß ∈ R p A - 1EpEnRnRpXRpRnXUNEpA EpUNβ^∈ RpUN- 1QED .
(Questa prova funziona, non modificata, anche quando non è invertibile.)X'X
La citazione si riferisce specificamente al caso delle matrici diagonali con per e .A i i = 1 i ≠ j A j j = cUNUNio io= 1io ≠ jUNj j= c
Connessione con i minimi quadrati
L'obiettivo qui è quello di utilizzare i primi principi per ottenere il risultato, con il principio che è quello dei minimi quadrati: stimare i coefficienti che minimizzano la somma dei quadrati dei residui.
Ancora una volta, dimostrare una (enorme) generalizzazione non è più difficile ed è piuttosto rivelatore. Supponiamo che sia una mappa (lineare o no) di spazi vettoriali reali e supponiamo che sia una funzione valutata su . Lascia che sia l'insieme (possibilmente vuoto) di punti per i quali è minimizzato. Q W n U ⊂ V p v Q ( ϕ ( v ) )
ϕ : Vp→ Wn
QWnU⊂ VpvQ ( ϕ ( v ) )
Risultato: , che è determinato esclusivamente da e , non dipende da alcuna scelta della base utilizzata per rappresentare i vettori in .Q ϕ E p V pUQφEpVp
Prova: QED.
Non c'è niente da dimostrare!
Applicazione del risultato: Sia una forma quadratica semidefinita positiva su , sia , e supponiamo che sia una mappa lineare rappresentata da quando le basi di e sono scelti. Definire . Scegli una base di e supponi che sia la rappresentazione di alcuni in quella base. Questo è il minimo dei quadrati : minimizza la distanza al quadrato . PerchéR n y ∈ R n φ X V p = R p W n = R n Q ( x ) = F ( y , x ) R p β v ∈ U x = X β F ( y , x ) X R p X A β A - 1FRny∈ RnφXVp= RpWn= RnQ(x)=F(y,x)Rpβ^v∈Ux=Xβ^F(y,x)Xè una mappa lineare, modificare la base di corrisponde a destra-moltiplicando da alcuni invertibile matrice . Ciò moltiplicherà a sinistra per , QED .RpXAβ^A−1