Come si trova la media di una somma di variabili dipendenti?


13

So che la media della somma delle variabili indipendenti è la somma delle medie di ciascuna variabile indipendente. Questo vale anche per le variabili dipendenti?


@feetwet, la semplice rimozione di "grazie" non è abbastanza importante per cancellare un thread di 18 mesi fa. FWIW, ho votato per rifiutare questa modifica (ma altre 2 approvate, quindi non avresti altrimenti visto il mio commento).
gung - Ripristina Monica

1
@gung - Tutti i tipi di cose possono rovinare la vista delle domande "Attivo". La tua osservazione è stata fatta spesso e AFAIK la politica di scambio di stack è che, nonostante questo inconveniente, le modifiche minori valide sono una buona cosa .
feetwet

1
@feetwet, non sono sicuro di quanto sia rilevante un post meta.Photography. Ogni sito SE ha il proprio meta e le proprie politiche, decise dalla community. Potresti voler guardare i relativi thread meta.CV, ad esempio questo: Gestire le "modifiche suggerite" ai post . Potresti notare che la risposta di Whuber cita Jeff Atwood, "piccoli edit [s], come ... rimuovere solo il saluto da un post. una modifica troppo piccola è inversamente correlata all'età della domanda ".
gung - Ripristina Monica

1
@gung the post di Fotografia Ho fatto riferimento a collegamenti a una significativa e più recente Domande e risposte sullo scambio di Meta Stack sull'argomento . Ma se la risposta di 4 anni di Whuber è ancora canonica per Cross Validated , la rispetterò in futuro.
feetwet,

Risposte:


18

L'aspettativa (prendendo la media) è un operatore lineare .

Ciò significa che , tra le altre cose, per due variabili casuali e (per le quali esistono le aspettative ), indipendentemente dal fatto che siano indipendenti o meno.E(X+Y)=E(X)+E(Y)XY

Possiamo generalizzare (ad esempio per induzione ) in modo che così fintanto che esiste ogni aspettativa .E(i=1nXi)=i=1nE(Xi)E(Xi)

Quindi sì, la media della somma è uguale alla somma della media anche se le variabili sono dipendenti. Ma nota che questo non vale per la varianza! Quindi, mentre per variabili indipendenti o anche variabili dipendenti ma non correlate , la formula generale è dove è la covarianza delle variabili.Var(X+Y)=Var(X)+Var(Y)V a r ( X + Y ) = V a r ( X ) + V a r ( Y ) + 2 C o v ( X , Y ) C o vVar(X+Y)=Var(X)+Var(Y)+2Cov(X,Y)Cov


10

TL; DR:
Supponendo che esista, la media è un valore atteso e il valore atteso è un integrale e gli integrali hanno la proprietà di linearità rispetto alle somme.

TS; DR:
Dato che abbiamo a che fare con la somma delle variabili casuali , ovvero di una funzione di molti di essi, la media della somma è rispetto alla loro distribuzione congiunta (diamo per scontato che tutti i mezzi esistono e sono finite) che indica l'multivariata vettore degli del camper, la loro densità congiunta può essere scritta come e il loro supporto congiunto Usando la Legge dello Statistico Unconcscious abbiamo l' integrale multiplo E ( Y n ) X n f X ( x ) = f X 1 , . . . , X n ( x 1 , . . . , X n ) D = S X 1 × . . . × S X nYn=i=1nXiE(Yn)XnfX(x)=fX1,...,Xn(x1,...,xn)D=SX1×...×SXn

E[Yn]=DYnfX(x)dx
.

In alcune condizioni di regolarità possiamo scomporre l'integrale multipli in un integrale -iterative:n

E[Yn]=SXn...SX1[i=1nXi]fX1,...,Xn(x1,...,xn)dx1...dxn

e usando la linearità degli integrali in cui possiamo scomporre

=SXn...SX1x1fX1,...,Xn(x1,...,xn)dx1...dxn+......+SXn...SX1xnfX1,...,Xn(x1,...,xn)dx1...dxn

Per ogni integrale reiterativo possiamo riorganizzare l'ordine di integrazione in modo che, in ciascuno, l'integrazione esterna sia rispetto alla variabile esterna alla densità articolare. Vale a dire,n

SXn...SX1x1fX1,...,Xn(x1,...,xn)dx1...dxn=SX1x1SXn...SX2fX1,...,Xn(x1,...,xn)dx2...dxndx1

e in generale

SXn...SXj...SX1xjfX1,...,Xn(x1,...,xn)dx1...dxj...dxn=
=SXjxjSXn...SXj1SXj+1...SX1fX1,...,Xn(x1,...,xn)dx1...dxj1dxj+1......dxndxj

Quando calcoliamo uno a uno l'integrale in ogni integrale espressivo (a partire dall'interno), "integriamo" una variabile e otteniamo in ogni fase la distribuzione "congiunta-marginale" delle altre variabili. Ogni integrante -iterative quindi finirà come .nnSXjxjfXj(xj)dxj

Riunendo tutto insieme arriviamo a

E[Yn]=E[i=1nXi]=SX1x1fX1(x1)dx1+...+SXnxnfXn(xn)dxn

Ma ora ogni integrale semplice è il valore atteso di ciascuna variabile casuale separatamente, quindi

= n i = 1 E ( X i )

E[i=1nXi]=E(X1)+...+E(Xn)
=i=1nE(Xi)

Si noti che non abbiamo mai invocato l'indipendenza o la non indipendenza delle variabili casuali coinvolte, ma abbiamo lavorato esclusivamente con la loro distribuzione congiunta.


@ssdecontrol Questo è un voto che apprezzo davvero .
Alecos Papadopoulos,

1
L'espansione in integrali iterati e viceversa non è necessaria. Ciò complica una semplice discussione. È possibile sostituire la sezione "TS; DR" con la sua ultima frase e avere una risposta eccellente.
whuber

@whuber Un anno e mezzo dopo, mi sfugge ancora (intendo, senza usare il fatto della "linearità dell'aspettativa", che è già stato usato dall'altra risposta). Qualche suggerimento per poter rielaborare la risposta a questo semplice argomento?
Alecos Papadopoulos,

Penso che l'argomento sia superfluo. La chiave di tutto è la tua osservazione nell'ultima frase.
whuber
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.