Qual è l'intuizione dietro l'indipendenza di


18

Speravo che qualcuno potesse proporre un argomento che spieghi perché le variabili casuali e , con distribuzione normale standard, sono statisticamente indipendenti. La prova di questo fatto deriva facilmente dalla tecnica MGF, ma la trovo estremamente controintuitiva.Y1=X2X1Y2=X1+X2Xi

Gradirei quindi l'intuizione qui, se presente.

Grazie in anticipo.

EDIT : i pedici non indicano le statistiche dell'ordine ma le osservazioni IID della normale distribuzione standard.


Che cos'è la "tecnica MGF"?
ameba dice di reintegrare Monica il

@amoeba È l'uso di funzioni generatrici di momenti per determinare la distribuzione di una variabile casuale. Nel mio caso, mi riferisco al teorema che Y1 e Y2 sono indipendenti se e solo se M(t1,t2)=M(t1,0)×M(0,t2) , M(t1,t2) uguale a E(et1Y1+t2Y2). Scegli qualsiasi altra tecnica e sono sicuro che otterrai lo stesso risultato.
JohnK,

1
È possibile trovare alcune informazioni nel thread strettamente correlato all'indirizzo stats.stackexchange.com/questions/71260 .
whuber

Si potrebbe ottenere un po 'di intuizione, considerando ciò che accade a ciascuno di questi se si aggiunge una costante, dire μ , ad ogni X . E cosa succede se moltiplichi ogni X per una costante, dì σ
rvl il

Risposte:


22

Si tratta di dati distribuiti normali standard: si diagramma a dispersione nel primo sistema di coordinate noti che la distribuzione è simmetrica circolaria.

Quando si passa a e Y 2 = X 1 + X 2 , si ruota e scala in modo efficace l'asse, in questo modo: questo nuovo sistema di coordinate ha la stessa origine di quello originale e gli assi sono ortogonale. A causa della simmetria circolare, le variabili sono ancora indipendenti nel nuovo sistema di coordinate.Y1=X2X1Y2=X1+X2grafico a dispersione con sistema di coordinate ruotato


4
Il risultato si applica anche quando e X 2 sono correlati con i margini normali dell'unità. Quindi la tua spiegazione copre solo una sottocassa del risultato originale. Tuttavia, l'idea di base qui è sana. X1X2
Glen_b -Restate Monica

1
@Glen_b, sì, hai ragione. Volevo concentrarmi su un caso semplice, poiché JohnK sembra già sapere come dimostrare il caso generale, ma non ha la comprensione intuitiva.
Dobiwan,

7

Il risultato funziona per congiuntamente normale (cioè con correlazione, - 1 < ρ < 1 ), con σ comune .(X1,X2)1<ρ<1σ

Se conosci un paio di risultati di base, questo è tutto ciò di cui hai bisogno:

enter image description here

L'approccio di Dobiwan è sostanzialmente perfetto - è solo che il risultato è più generale del caso trattato lì.


3
+1 per ridurre il risultato desiderato all'essenziale. Aggiungerò che per il caso più generale di normalità congiunta con varianze disuguali, una rotazione degli assi di invece di±π
θ=12arctan(2ρσ1σ2σ12σ22)
a implicita(X1,X2)(X1+X2.X1-X2)produce variabili aleatorie normali indipendenti. ±π4(X1,X2)(X1+X2.X1X2)
Dilip Sarwate,

6

Il risultato si pretende di essere vero non è vero in generale, non anche per il caso in cui tutto che è noto è che e X 2 sono variabili casuali normali con varianza identici, ma il risultato fa presa per l' usuale interpretazione della condizione hai dichiarato più tardi:X1X2

I pedici non indicano le statistiche degli ordini ma le osservazioni dalla normale distribuzione standard.

La consueta interpretazione delle ultime parole in questa affermazione è, ovviamente, che e X 2 sono variabili casuali indipendenti (normali), e quindi variabili casuali normali congiuntamente .X1X2

Per variabili casuali normali congiunte con varianza identica, è vero che e X 1 - X 2 sono variabili casuali indipendenti (normali) (con, in generale, varianze disuguali), e la spiegazione intuitiva per questo è meglio data nella risposta di Glen_b. Poiché anche il tuo caso speciale di X 1 e X 2 è indipendente, la risposta di Dobiwan, che hai accettato, è più semplice e rivela in effetti che qualsiasi rotazione degli assi, non solo di ± πX1+X2X1X2X1X2 implicito nella trasformazione(X1,X2)(X1+X2,X1-X2), produrrà variabili casuali indipendenti.±π4(X1,X2)(X1+X2,X1X2)


Cosa si può dire in generale? In tutto ciò che dico di seguito, tieni presente che e Y hanno la stessa varianza , indipendentemente dalle altre proprietà che potrebbero essere loro attribuite.XY

Se e Y sono eventuali variabili casuali (nota: non necessariamente normale) con varianza identici, allora X + Y e X - Y sono incorrelati variabili casuali (cioè, hanno covarianza nulla). Questo perché la funzione di covarianza è bilineare : cov ( X + Y , X - Y )XYX+YXY Qui abbiamo usato il fatto checov(X,X)è solo la varianzavar(X)diX(e similmente perY) e, naturalmente, cov(Y,X)=cov(X,Y). Si noti che questo risultato vale quandoXeYsono (casualmente) variabili casuali normali ma non necessariamentecongiuntamente

cov(X+Y,XY)=cov(X,X)cov(X,Y)+cov(Y,X)cov(Y,Y)=var(X)cov(X,Y)+cov(X,Y)var(Y)=0.
cov(X,X)var(X)XYcov(Y,X)=cov(X,Y)XYvariabili casuali normali. (Se non si ha familiarità con questa nozione di normalità marginale che non è la stessa di normalità comune, vedere questa grande risposta del cardinale). Nel caso speciale in cui e Y sono variabili casuali normali congiuntamente normali (ma non necessariamente indipendenti), lo sono anche X + Y e X - Y congiuntamente normali, e poiché la loro covarianza è 0 , X + Y e X - Y sono casuali indipendenti variabili.XYX+YXY0X+YXY

2

X1,X2Y1Y20Y1,Y2

La media condizionata

X1+X2=yX1=x,X2=yxX1=yx,X2=x

X1X2X1+X2X1Y2=yX2Y2=y

E(Y1Y2=y)=E(X1X2X1+X2=y)=E(X1X1+X2=y)E(X2X1+X2=y)=0.

(Caveat: I did not consider the possibility that the conditional mean might not exist.)

Constant conditional mean implies zero correlation/covariance

Intuition: correlation measures how much Y1 tends to increase when Y2 increases. If observing Y2 never changes our mean of Y1, Y1 and Y2 are uncorrelated.

Proof: By definition, covariance is

Cov(Y1,Y2)=E[(Y1E(Y1))(Y2E(Y2))]
to this expectation, we apply the law of iterated expectations: take the expectation of the conditional expectation conditional on Y2:
=E[E[(Y1E(Y1))(Y2E(Y2))Y2]]=E[(Y2E(Y2))E[Y1E(Y1)Y2]].
Recall that the conditional mean was shown to be independent of Y2 and thus the expression simplifies as
=E[(Y2E(Y2))E[Y1E(Y1)]]
but the inner expectation is 0 and we get
=E[(Y2E(Y2))×0]=0.

Independence

Just by assuming identical distributions for X1,X2, it was shown that Y1 and Y2 are uncorrelated. When X1,X2 are jointly normal (for example, iid. normal as in the question), their linear combinations Y1,Y2 are also jointly normal and thus uncorrelatedness implies independence.

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.