Sia la correlazione che la covarianza misurano l'associazione lineare tra due variabili date e non ha l'obbligo di rilevare altre forme di associazione.
Quindi queste due variabili potrebbero essere associate in molti altri modi non lineari e la covarianza (e, quindi, la correlazione) non potrebbe distinguere dal caso indipendente.
Come molto didattico, artificiale e non realistica esempio, si può considerare X tale che P(X=x)=1/3 per x=−1,0,1 e considerare anche Y=X2 . Si noti che non sono solo associati, ma l'uno è una funzione dell'altro. Tuttavia, la loro covarianza è 0, poiché la loro associazione è ortogonale all'associazione che la covarianza è in grado di rilevare.
MODIFICARE
In effetti, come indicato da @whuber, la risposta originale sopra era in realtà un commento su come l'asserzione non è universalmente vera se entrambe le variabili non fossero necessariamente dicotomiche. Colpa mia!
Quindi facciamo matematica. (L'equivalente locale di "Suit up!" Di Barney Stinson)
Caso particolare
Se entrambi e Y sono dicotomico, allora si può supporre, senza perdita di generalità, che sia assumere solo i valori 0 e 1 con probabilità arbitrarie p , q ed r data da
P ( X = 1 ) = p ∈ [ 0 , 1 ] P ( Y = 1 ) = q ∈ [ 0 , 1 ] P ( X = 1 , YXY01pqr
che caratterizzano completamente la distribuzione congiunta diXeY. Prendendo in considerazione il suggerimento di @ DilipSarwate, nota che questi tre valori sono sufficienti per determinare la distribuzione congiunta di(X,Y), poiché
P ( X = 0 , Y = 1 )
P(X=1)=p∈[0,1]P(Y=1)=q∈[0,1]P(X=1,Y=1)=r∈[0,1],
XY(X,Y)
(Su una nota a margine, ovviamente
rè tenuto a rispettare sia
p-r∈[0,1],
q-r∈[0,1]che
1-p-q-r∈[P(X=0,Y=1)P(X=1,Y=0)P(X=0,Y=0)=P(Y=1)−P(X=1,Y=1)=q−r=P(X=1)−P(X=1,Y=1)=p−r=1−P(X=0,Y=1)−P(X=1,Y=0)−P(X=1,Y=1)=1−(q−r)−(p−r)−r=1−p−q−r.
rp−r∈[0,1]q−r∈[0,1] oltre
r ∈ [ 0 , 1 ] , ovvero
r ∈ [ 0 , min ( p , q , 1 - p - q ) ] .)
1−p−q−r∈[0,1]r∈[0,1]r∈[0,min(p,q,1−p−q)]
Si noti che potrebbe essere uguale al prodotto p ⋅ q = P ( X = 1 ) P ( Y = 1 ) , che renderebbe X e Y indipendenti, poiché
P ( X = 0 , Y = 0 )r=P(X=1,Y=1)p⋅q=P(X=1)P(Y=1)XY
P(X=0,Y=0)P(X=1,Y=0)P(X=0,Y=1)=1−p−q−pq=(1−p)(1−q)=P(X=0)P(Y=0)=p−pq=p(1−q)=P(X=1)P(Y=0)=q−pq=(1−p)q=P(X=0)P(Y=1).
Yes, r might be equal to pq, BUT it can be different, as long as it respects the boundaries above.
Well, from the above joint distribution, we would have
E(X)E(Y)E(XY)Cov(X,Y)=0⋅P(X=0)+1⋅P(X=1)=P(X=1)=p=0⋅P(Y=0)+1⋅P(Y=1)=P(Y=1)=q=0⋅P(XY=0)+1⋅P(XY=1)=P(XY=1)=P(X=1,Y=1)=r=E(XY)−E(X)E(Y)=r−pq
Now, notice then that X and Y are independent if and only if Cov(X,Y)=0. Indeed, if X and Y are independent, then P(X=1,Y=1)=P(X=1)P(Y=1), which is to say r=pq. Therefore, Cov(X,Y)=r−pq=0; and, on the other hand, if Cov(X,Y)=0, then r−pq=0, which is to say r=pq. Therefore, X and Y are independent.
General Case
About the without loss of generality clause above, if X and Y were distributed otherwise, let's say, for a<b and c<d,
P(X=b)=pP(Y=d)=qP(X=b,Y=d)=r
then
X′ and
Y′ given by
X′=X−ab−aandY′=Y−cd−c
would be distributed just as characterized above, since
X=a⇔X′=0,X=b⇔X′=1,Y=c⇔Y′=0andY=d⇔Y′=1.
So
X and
Y are independent
if and only if X′ and
Y′ are independent.
Also, we would have
E(X′)E(Y′)E(X′Y′)Cov(X′,Y′)=E(X−ab−a)=E(X)−ab−a=E(Y−cd−c)=E(Y)−cd−c=E(X−ab−aY−cd−c)=E[(X−a)(Y−c)](b−a)(d−c)=E(XY−Xc−aY+ac)(b−a)(d−c)=E(XY)−cE(X)−aE(Y)+ac(b−a)(d−c)=E(X′Y′)−E(X′)E(Y′)=E(XY)−cE(X)−aE(Y)+ac(b−a)(d−c)−E(X)−ab−aE(Y)−cd−c=[E(XY)−cE(X)−aE(Y)+ac]−[E(X)−a][E(Y)−c](b−a)(d−c)=[E(XY)−cE(X)−aE(Y)+ac]−[E(X)E(Y)−cE(X)−aE(Y)+ac](b−a)(d−c)=E(XY)−E(X)E(Y)(b−a)(d−c)=1(b−a)(d−c)Cov(X,Y).
So
Cov(X,Y)=0 if and only Cov(X′,Y′)=0.
=D