Il problema con il tuo ragionamento è
"Penso che possiamo sempre presumere che sia indipendente dalle altre X ".XX
non è indipendente da X . Il simbolo X viene utilizzato per fare riferimento alla stessa variabile casuale qui. Una volta che conosci il valore della prima X da visualizzare nella tua formula, questo risolve anche il valore della seconda X da visualizzare. Se si desidera che facciano riferimento a variabili casuali distinte (e potenzialmente indipendenti), è necessario indicarle con lettere diverse (ad es. X e Y ) o utilizzare pedici (ad es. X 1 e X 2 ); quest'ultimo è spesso (ma non sempre) utilizzato per indicare le variabili tratte dalla stessa distribuzione.XXXXXXYX1X2
Se due variabili e Y sono indipendenti, allora Pr ( X = un | Y = b ) è lo stesso di Pr ( X = una ) : conoscere il valore di Y non ci dà ulteriori informazioni sul valore di X . Ma Pr ( X = a | X = b ) è 1 se a = b e 0 altrimenti: conoscendo il valore di XXYPr ( X= a |Y=b)Pr(X=a)YXPr(X=a|X=b)1a=b0Xti dà informazioni complete circa il valore di . [È possibile sostituire le probabilità in questo paragrafo con funzioni di distribuzione cumulativa o, se del caso, funzioni di densità di probabilità, essenzialmente allo stesso effetto.]X
Un altro modo di vedere le cose è che se due variabili sono indipendenti allora hanno una correlazione zero (sebbene la correlazione zero non implichi indipendenza !) Ma è perfettamente correlato con se stesso, Corr ( X , X ) = 1 quindi X non può essere indipendente di se stesso. Si noti che poiché la covarianza è data da Cov ( X , Y ) = Corr ( X , Y ) √XCorr(X,X)=1X , quindiCov(X,X)=1 √Cov(X,Y)=Corr(X,Y)Var(X)Var(Y)−−−−−−−−−−−−√
Cov(X,X)=1Var(X)2−−−−−−−√=Var(X)
La formula più generale per la varianza di una somma di due variabili casuali è
Var(X+Y)=Var(X)+Var(Y)+2Cov(X,Y)
In particolare, , quindiCov(X,X)=Var(X)
Var(X+X)=Var(X)+Var(X)+2Var(X)=4Var(X)
che è lo stesso che avresti dedotto dall'applicazione della regola
Var(aX)=a2Var(X)⟹Var(2X)=4Var(X)
Se sei interessato alla linearità, allora potresti essere interessato alla bilinearità della covarianza. Per le variabili casuali , X , Y e Z (dipendenti o indipendenti) e le costanti a , b , c e d che abbiamoWXYZabcd
Cov(aW+bX,Y)=aCov(W,Y)+bCov(X,Y)
Cov(X,cY+dZ)=cCov(X,Y)+dCov(X,Z)
e nel complesso,
Cov(aW+bX,cY+dZ)=acCov(W,Y)+adCov(W,Z)+bcCov(X,Y)+bdCov(X,Z)
È quindi possibile utilizzare questo per dimostrare i risultati (non lineari) per la varianza che hai scritto nel tuo post:
Var(aX)=Cov(aX,aX)=a2Cov(X,X)=a2Var(X)
Var(aX+bY)Var(aX+bY)=Cov(aX+bY,aX+bY)=a2Cov(X,X)+abCov(X,Y)+baCov(X,Y)+b2Cov(Y,Y)=a2Var(X)+b2Var(Y)+2abCov(X,Y)
The latter gives, as a special case when a=b=1,
Var(X+Y)=Var(X)+Var(Y)+2Cov(X,Y)
When X and Y are uncorrelated (which includes the case where they are independent), then this reduces to Var(X+Y)=Var(X)+Var(Y).
So if you want to manipulate variances in a "linear" way (which is often a nice way to work algebraically), then work with the covariances instead, and exploit their bilinearity.