Osservare che la variabile casuale è solo una funzione di Z = ( Z 1 , ... , Z n ) . Per un n -vettore, z , scriviamo i j ( z ) per l'indice della jª coordinata più grande. Sia anche P z ( A ) = P ( X 1 ∈ A ∣ Z 1 = z ) denota la distribuzione condizionale di X 1ijZ=(Z1,…,Zn)nzij(z)jPz( A )=P(X1∈ A ∣Z1=z)X1dato .Z1
Se rompiamo le probabilità in funzione del valore di e disgregarsi WRT Z otteniamoiojZ
P( Xioj∈ A )=====ΣKP( XK∈ A , ioj= k )ΣK∫( ioj( z)=k)P(Xk∈A∣Z=z)P(Z∈dz)∑k∫(ij(z)=k)P(Xk∈A∣Zk=zk)P(Z∈dz)∑k∫(ij(z)=k)Pzk(A)P(Z∈dz)∫Pz(A)P(Zij∈dz)
Questo argomento è abbastanza generale e si basa solo sui presupposti iid dichiarati, e potrebbe essere una qualsiasi funzione data di ( X k , Y k )ZK( XK, YK) .
Sotto le ipotesi delle distribuzioni normali (prendendo ) e Z k essendo la somma, la distribuzione condizionale di X 1 data Z 1 = z è
N ( σ 2 xσy= 1ZKX1Z1= z
e @probabilityislogic mostra come calcolare la distribuzione diZij, quindi abbiamo espressioni esplicite per entrambe le distribuzioni che entrano nell'ultimo integrale sopra. Se l'integrale può essere calcolato analiticamente è un'altra domanda. Potresti essere in grado di farlo, ma dalla parte superiore della mia testa non posso dire se è possibile. Per l'analisi asintotica quandoσx→0oσx→∞potrebbe non essere necessario.
N( σ2X1 + σ2Xz, σ2X( 1 - σ2X1 + σ2X) )
ZiojσX→ 0σX→ ∞
L'intuizione alla base del calcolo di cui sopra è che si tratta di un argomento di indipendenza condizionale. Dato le variabili X k e i j sono indipendenti.ZK= zXKioj