È vero che per due variabili casuali e ,
È vero che per due variabili casuali e ,
Risposte:
Se , il lato destro di comporta una divisione per e quindi senso. Notare che e sono indipendenti o no non è rilevante.
In generale , non vale per variabili casuali dipendenti ma si possono trovare esempi specifici di A e B soddisfacenti soddisfacenti ( 1 ) . Nota che dobbiamo continuare a insistere sul fatto che E [ B ] ≠ 0 , altrimenti il lato destro di ( 1 ) non ha senso. Tieni presente che E [ A ∣ B ] è una variabile casuale che sembra essere una funzione della variabile casuale B , ad esempio g ( mentre E [ B ∣ A ] è unavariabile casualeche è unafunzionedella variabile casuale A , diciamo h ( A ) . Quindi, ( 1 ) è simile a chiedere se
può essere una vera affermazione, e ovviamente la risposta è cheg(B)non può essere un multiplo dih(A)in generale.
Per quanto ne so , ci sono solo due casi speciali in cui può contenere.
Come notato sopra, per le variabili casuali indipendenti e B , g ( B ) e h ( A ) sono variabili casuali degenerate (chiamate costanti da persone statisticamente analfabete) che equivalgono rispettivamente a E [ A ] ed E [ B ] , e quindi se E [ B ] ≠ 0 , abbiamo uguaglianza in ( 1 ) .
All'altra estremità dello spettro dall'indipendenza, supponiamo che dove g ( ⋅ ) sia una funzione invertibile e quindi A = g ( B ) e B = g - 1 ( A ) siano variabili casuali totalmente dipendenti. In questo caso, E [ A ∣ B ] = g ( B ) , e così ( 1 ) diventa g ( B ) ? = B E [ A ]
In un commento su questa risposta, Huber ha suggerito di considerare l'uguaglianza congetturata simmetrica che naturalmente tiene sempre per le variabili casuali indipendenti indipendentemente dai valori di E [ A ] e E [ B ] e per multipli scalari A = α B anche. Naturalmente, più banalmente, ( 3 ) vale per
The result is untrue in general, let us see that in a simple example. Let have a binomial distribution with parameters and have the beta distrubution with parameters , that is, a bayesian model with conjugate prior. Now just calculate the two sides of your formula, the left hand side is , while the right hand side is
The conditional expected value of a random variable given the event that is a number that depends on what number is. So call it Then the conditional expected value is a random variable whose value is completely determined by the value of the random variable . Thus is a function of and is a function of .
The quotient is just a number.
So one side of your proposed equality is determined by and the other by , so they cannot generally be equal.
(Perhaps I should add that they can be equal in the trivial case when the values of and determine each other, as when for example, and , when
The expression certainly does not hold in general. For the fun of it, I show below that if and follow jointly a bivariate normal distribution, and have non-zero means, the result will hold if the two variables are linear functions of each other and have the same coefficient of variation (the ratio of standard deviation over mean) in absolute terms.
For jointly normals we have
and we want to impose
Simplify and then , and re-arrange to get
So this is the linear relationship that must hold between the two variables (so they are certainly dependent, with correlation coefficient equal to unity in absolute terms) in order to get the desired equality. What it implies?
First, it must also be satisfied that
so no other restirction is imposed on the mean of ( or of ) except of them being non-zero. Also a relation for the variance must be satisfied,
which was to be shown.
Note that equality of the coefficient of variation in absolute terms, allows the variables to have different variances, and also, one to have positive mean and the other negative.