Tecnica di traccia randomizzata


10

Ho incontrato la seguente tecnica di traccia randomizzata in M. Seeger, "Aggiornamenti di basso rango per la decomposizione di Cholesky", Università della California a Berkeley, Tech. Rep, 2007.

TR(UN)=E[XTUNX]

dove .X~N(0,io)

Come persona senza un profondo background matematico, mi chiedo come possa essere raggiunta questa uguaglianza. Inoltre, come possiamo interpretare , ad esempio geometricamente? Dove devo cercare per comprendere il significato di prendere il prodotto interno di un vettore e il suo valore di intervallo? Perché la media è uguale alla somma degli autovalori? Oltre alla proprietà teorica, qual è la sua importanza pratica?XTUNX

Ho scritto uno snippet di codice MATLAB per vedere se funziona

#% tr(A) == E[x'Ax], x ~ N(0,I)

N = 100000;
n = 3;
x = randn([n N]); % samples
A = magic(n); % any n by n matrix A

y = zeros(1, N);
for i = 1:N
    y(i) = x(:,i)' * A * x(:,i);
end
mean(y)
trace(A)

La traccia è 15 dove l'approssimazione è 14.9696.

Risposte:


12

NB Il risultato dichiarato non dipende da alcuna assunzione di normalità o persino dall'indipendenza delle coordinate di . Non dipende neanche dal fatto che sia definito positivo. Supponiamo, infatti, solo che le coordinate di abbiano media zero, varianza di uno e non siano correlate (ma non necessariamente indipendenti); cioè, , e per tutti .A x E x i = 0 E x 2 i = 1XUNXEXio=0EXio2=1i jEXioXj=0ioj

Approccio a mani nude

Sia una matrice arbitraria . Per definizione . Quindi, e così abbiamo finito.n × n t r ( A ) = n i = 1 aUN=(un'ioj)n×n t r ( A )= n i = 1 atr(UN)=Σio=1nun'ioio

tr(UN)=Σio=1nun'ioio=Σio=1nun'ioioEXio2=Σio=1nun'ioioEXio2+Σiojun'iojEXioXj,

Nel caso in cui ciò non sia del tutto evidente, si noti che il lato destro, per linearità delle aspettative, è

Σio=1nun'ioioEXio2+Σiojun'iojEXioXj=E(Σio=1nΣj=1nun'iojXioXj)=E(XTUNX)

Prova tramite proprietà di traccia

C'è un altro modo di scrivere questo che è suggestivo, ma si basa, concettualmente su strumenti leggermente più avanzati. Abbiamo bisogno che sia l'aspettativa sia l'operatore di traccia siano lineari e che, per due matrici e di dimensioni appropriate, . Quindi, poiché , abbiamo e quindi, B t r ( A B ) = t r ( B A ) x T A x = t r ( x T A x ) r ( E ( A x x T ) ) = t r ( AUNBtr(UNB)=tr(BUN)XTUNX=tr(XTUNX)E ( x T A x ) = t r ( A I ) = t r ( A ) .

E(XTUNX)=E(tr(XTUNX))=E(tr(UNXXT))=tr(E(UNXXT))=tr(UNEXXT),
E(XTUNX)=tr(UNio)=tr(UN).

Forme quadratiche, prodotti interni ed ellissoidi

Se è definito positivo, allora un prodotto interno su può essere definito tramite e definisce un ellissoide in centrato sull'origine.R nx , y A = x T A y E A = { x : x T A x = 1 } R nUNRnX,yUN=XTUNyEUN={X:XTUNX=1}Rn


È abbastanza confuso seguire le variabili grassetto e mormalcase . Penso che siano valori scalari. Capisco più chiaramente quando parto dal modulo di aspettativa come hai fatto nell'ultima parte. Quindi è molto chiaro per me ora. x i E [ ( x T A x ) ] = E [ ( n i = 1 n j = 1XioXio
E[(XTUNX)]=E[(Σio=1nΣj=1nun'iojXioXj)]=Σio=1nun'ioioE[Xio2]+Σiojun'iojE[XioXj]
petrichor,

i x X =( X i ) X i XXio è l' esimo coordinate del vettore . Gli altri sono semplicemente errori di battitura. Mi dispiace per quello. Stavo cercando di seguire la tua notazione il più vicino possibile. Userei normalmente con come coordinate della variabile casuale . Ma non volevo (potenzialmente) confondere. ioXX=(Xio)XioX
cardinale il

In realtà, è coerente nella risposta. Volevo solo assicurarmi che le variabili sottoscritte siano gli elementi del vettore. Ora è chiaro
petrichor,

Bene, è coerente (ora) perché l'ho modificato! :) Grazie per aver segnalato gli errori di battitura. Proverò ad aggiungere un po 'di più sulla geometria ad un certo punto nei prossimi due giorni.
cardinale il

3

Se è definito simmetrico positivo, allora con ortogonale e diagonale con autovalori sulla diagonale. Poiché ha una matrice di covarianza di identità e è ortonormale, ha anche una matrice di covarianza di identità. Quindi scrivendo , abbiamo . Poiché l'operatore delle aspettative è lineare, questo è solo . Ogni è chi-quadrato con 1 grado di libertà, quindi ha un valore atteso 1. Quindi l'attesa è la somma degli autovalori.A = U t D U U D x U U x y = U x E [ x T A x ] = E [ y t D y ] n i = 0 λ i E [ y 2 i ] y iUNUN=UtDUUDXUUXy=UXE[XTUNX]=E[ytDy]Σio=0nλioE[yio2]yio

Geometricamente, le matrici definite positive simmetriche sono in corrispondenza dell'1-1 con gli ellissoidi - data dall'equazione . Le lunghezze degli assi dell'ellissoide sono date da dove sono gli autovalori.x T A x = 1 1 / UNXTUNX=1λi1/λioλio

Quando dove è la matrice di covarianza, questo è il quadrato della distanza di Mahalanobis . CUN=C-1C


1

UNXUNUNUN

UNUN

Vengono discusse alcune applicazioni di questa tecnica ai problemi di inversione geofisica su larga scala

JK MacCarthy, B. Borchers e RC Aster. Stima efficiente stocastica della matrice di risoluzione del modello diagonale e validazione incrociata generalizzata per grandi problemi inversi geofisici. Journal of Geophysical Research, 116, B10304, 2011. Link al documento


+1 Ho incontrato algoritmi randomizzati questo semestre e ne sono rimasto affascinato. Vorrei aggiungere un altro bell'articolo. Nathan Halko, Per-Gunnar Martinsson, Joel A. Tropp, "Trovare struttura con casualità: algoritmi probabilistici per la costruzione di decomposizioni di matrice approssimativa", 2010, arxiv.org/abs/0909.4061
petrichor
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.