Forse semplificando la notazione possiamo far emergere le idee essenziali. Si scopre che non è necessario coinvolgere aspettative o formule complicate, perché tutto è puramente algebrico.
La natura algebrica degli oggetti matematici
La domanda riguarda le relazioni tra (1) la matrice di covarianza di un insieme finito di variabili casuali e (2) relazioni lineari tra tali variabili, considerate come vettoriX1,…,Xn .
Lo spazio vettoriale in questione è l'insieme di tutte le variabili aleatorie finiti varianza (in un dato spazio di probabilità ) MODULO sottospazio delle variabili quasi certamente costanti, indicata L 2 ( Ω , P ) / R . (Cioè, consideriamo due variabili casuali X e Y come lo stesso vettore quando non vi è alcuna possibilità che X - Y differisca dalle sue aspettative.) Abbiamo a che fare solo con lo spazio vettoriale a dimensioni finite V generato da X i ,(Ω,P)L2(Ω,P)/R.XYX−YVXi, che è ciò che rende questo un problema algebrico piuttosto che analitico.
Cosa dobbiamo sapere sulle variazioni
è molto più di uno spazio vettoriale: è unmodulo quadratico,perché è dotato della varianza. Tutto quello che dobbiamo sapere sulle varianze sono due cose:V
La varianza è uno scalare funzione a valori con la proprietà che Q ( una X ) = un 2 Q ( X ) per tutti i vettori X .QQ(aX)=a2Q(X)X.
La varianza non è generosa.
Il secondo necessita di alcune spiegazioni. determina un "prodotto punto", che è una forma bilineare simmetrica data daQ
X⋅Y=14(Q(X+Y)−Q(X−Y)).
(Questo ovviamente non è altro che la covarianza delle variabili e Y ) . I vettori X e Y sono ortogonali quando il loro prodotto punto è 0. Il complemento ortogonale di qualsiasi insieme di vettori A ⊂ V è costituito da tutti i vettori ortogonali ad ogni elemento di A , scrittoXY.XY0.A⊂VA,
A0={v∈V∣a.v=0 for all v∈V}.
È chiaramente uno spazio vettoriale. Quando , Q non è generata.V0={0}Q
Consentitemi di dimostrare che la varianza è davvero non degenerata, anche se potrebbe sembrare ovvia. Supponiamo che sia un elemento diverso da zero di V 0 . Questo significa X ⋅ Y = 0 per tutti Y ∈ V ; equivalentemente,XV0.X⋅Y=0Y∈V;
Q(X+Y)=Q(X−Y)
per tutti i vettori Prendendo Y = X si ottieneY.Y=X
4Q(X)=Q(2X)=Q(X+X)=Q(X−X)=Q(0)=0
e quindi Tuttavia, sappiamo (usando la disuguaglianza di Chebyshev, forse) che le uniche variabili casuali con varianza zero sono quasi sicuramente costanti, che le identifica con il vettore zero in V , QED.Q(X)=0.V,
Interpretazione delle domande
Tornando alle domande, nella notazione precedente la matrice di covarianza delle variabili casuali è solo una matrice regolare di tutti i loro prodotti punto,
T=(Xi⋅Xj).
C'è un buon modo di pensare a : definisce una trasformazione lineare su R n nel solito modo, inviando qualsiasi vettore x = ( x 1 , … , x n ) ∈ R n nel vettore T ( x ) = y = ( y 1 , ... , x n ) i cui i esima componente è data dalla regola moltiplicazione matriceTRnx=(x1,…,xn)∈RnT(x)=y=(y1,…,xn)ith
yi=∑j=1n(Xi⋅Xj)xj.
The kernel of this linear transformation is the subspace it sends to zero:
Ker(T)={x∈Rn∣T(x)=0}.
The foregoing equation implies that when x∈Ker(T), for every i
0=yi=∑j=1n(Xi⋅Xj)xj=Xi⋅(∑jxjXj).
Since this is true for every i, it holds for all vectors spanned by the Xi: namely, V itself. Consequently, when x∈Ker(T), the vector given by ∑jxjXj lies in V0. Because the variance is nondegenerate, this means ∑jxjXj=0. That is, x describes a linear dependency among the n original random variables.
You can readily check that this chain of reasoning is reversible:
Linear dependencies among the Xj as vectors are in one-to-one correspondence with elements of the kernel of T.
(Remember, this statement still considers the Xj as defined up to a constant shift in location--that is, as elements of L2(Ω,P)/R--rather than as just random variables.)
Finally, by definition, an eigenvalue of T is any scalar λ for which there exists a nonzero vector x with T(x)=λx. When λ=0 is an eigenvalue, the space of associated eigenvectors is (obviously) the kernel of T.
Summary
We have arrived at the answer to the questions: the set of linear dependencies of the random variables, qua elements of L2(Ω,P)/R, corresponds one-to-one with the kernel of their covariance matrix T. This is so because the variance is a nondegenerate quadratic form. The kernel also is the eigenspace associated with the zero eigenvalue (or just the zero subspace when there is no zero eigenvalue).
Reference
I have largely adopted the notation and some of the language of Chapter IV in
Jean-Pierre Serre, A Course In Arithmetic. Springer-Verlag 1973.