Aspettativa del reciproco di una variabile


Risposte:


27

può essere 1 / E (X)?

No, in generale non può; La disuguaglianza di Jensen ci dice che se è una variabile casuale e è una funzione convessa, allora . Se è strettamente positivo, allora è convesso, quindi , e per una funzione strettamente convessa, l'uguaglianza si verifica solo se ha varianza zero ... quindi nei casi in cui tendiamo a interessarci, i due sono generalmente disuguali.Xφφ(E[X])E[φ(X)]X1/XE[1/X]1/E[X]X

Supponendo che abbiamo a che fare con una variabile positiva, se ti è chiaro che e saranno inversamente correlati ( ), ciò implicherebbe che implica , quindi .1 / X Cov ( X , 1 / X ) 0 E ( X 1 / X ) - E ( X ) E ( 1 / X ) 0 E ( X ) E ( 1 / X ) 1 E ( 1 / X ) 1 / E ( X )X1/XCov(X,1/X)0E(X1/X)E(X)E(1/X)0E(X)E(1/X)1E(1/X)1/E(X)

Sono confuso nell'applicare le aspettative nel denominatore.

Usa la legge dello statistico inconscio

E[g(X)]=g(x)fX(x)dx

(nel caso continuo)

quindi quando ,g(X)=1XE[1X]=f(x)xdx

In alcuni casi, l'aspettativa può essere valutata mediante ispezione (ad es. Con variabili gamma casuali) o derivando la distribuzione dell'inverso o con altri mezzi.


14

Come dice Glen_b, probabilmente è sbagliato, perché il reciproco è una funzione non lineare. Se vuoi un'approssimazione su E(1/X) forse puoi usare un'espansione di Taylor attorno a E(X) :

E(1X)E(1E(X)1E(X)2(XE(X))+1E(X)3(XE(X))2)==1E(X)+1E(X)3Var(X)
quindi hai solo bisogno della media e della varianza di X, e se la distribuzione diXè simmetrica questa approssimazione può essere molto accurata.

EDIT: il forse sopra è abbastanza critico, vedi il commento da BioXX sotto.


eh si si ... mi dispiace molto di non essere riuscito a capire quel fatto ... ne ho ancora uno q ... è applicabile a qualsiasi tipo di funzione ?? in realtà sono bloccato con ... Come può l'aspettativa di | x | può essere dedotto in termini di E ( x ) e V ( x )|x||x|E(x)V(x)
Sandipan Karmakar

2
Non penso che tu possa usarlo per in quanto tale funzione non è differenziabile. Preferirei dividere il problema nei casi e dire E ( | X | ) = E ( X | X > 0 ) p ( X > 0 ) + E ( - X | X < 0 ) p ( X < 0 ) , I indovina. |X|E(|X|)=E(X|X>0)p(X>0)+E(X|X<0)p(X<0)
Matteo Fasiolo,

1
@MatteoFasiolo Puoi spiegare perché la simmetria della distribuzione di (o la sua mancanza) ha un effetto sulla precisione dell'approssimazione di Taylor? Hai una fonte a cui potresti indicarmi che spiega perché questo è? X
Aaron Hendrickson,

1
@AaronHendrickson il mio ragionamento è semplicemente che il prossimo termine per l'espansione è proporzionale alla che è legato alla asimmetria della distribuzione di X . L'asimmetria è una misura di asimmetria. Tuttavia, l'asimmetria zero non garantisce la simmetria e non sono sicuro che la simmetria garantisca l'asimmetria zero. Quindi, questo è tutto euristico e potrebbero esserci molti controesempi. E{(XE(X))3}X
Matteo Fasiolo,

4
Non capisco come questa soluzione ottenga così tanti voti positivi. Per una singola variabile casuale non ci sono giustificazioni sulla qualità di questa approssimazione. La terza derivata f ( x ) = 1 / x non è limitata. Inoltre il resto del ca. è 1 / 6 f '' ' ( ξ ) ( X - μ ) 3 dove ξ è essa stessa una variabile casuale tra X e μXf(x)=1/x1/6f(ξ)(Xμ)3ξXμ. Il resto non svanirà in generale e potrebbe essere molto grande. Taylor ca. può essere utile solo se si ha una sequenza di variabili casuali dove a n0 . Anche in questo caso è necessaria un'integrabilità uniforme se interessati all'aspettativa. Xnμ=Op(an)an0
BloXX,

8

Altri hanno già spiegato che la risposta alla domanda è NO, tranne casi banali. Di seguito diamo un approccio alla ricerca di quandoX>0con probabilità 1 e la funzione generatrice del momentoMX(t)=EetXesistono. Un'applicazione di questo metodo (e una generalizzazione) è data inValore atteso di1/xquandoxsegue una distribuzione Beta, qui daremo anche un esempio più semplice.E1XX>0MX(t)=EetX1/xx

Innanzitutto, nota che (semplice esercizio di calcolo). Quindi, scrivi E(10etxdt=1x Una semplice applicazione: lascia che X abbia la distribuzione esponenziale con rate 1, cioè con densità e - x , x > 0 e funzione generatrice dei momenti M X ( t ) = 1

E(1X)=0x1f(x)dx=0(0etxdt)f(x)dx=0(0etxf(x)dx)dt=0MX(t)dt
Xex,x>0. Quindi0 MX(-t)MX(t)=11t,t<1 , quindi sicuramente non convergono, ed è molto diverso da 10MX(t)dt=011+tdt=ln(1+t)|0=.1EX=11=1

7

Un approccio alternativo per calcolare sapendo X è una variabile casuale positivo è attraverso la sua funzione generatrice dei momenti E [ e - λ X ] . Poiché mediante calcoli elementari 0 e - λ x d λ = 1E(1/X)E[eλX] abbiamo, secondo il teorema di Fubini 0 E[e-λX]dλ=E[1

0eλxdλ=1x
0E[eλX]dλ=E[1X].

2
L'idea qui è giusta, ma i dettagli sbagliati. Pleasecheck
kjetil b halvorsen

1
@Kjetil Non vedo quale sia il problema: a parte le differenze insignificanti dell'uso di invece di - t X nella definizione dell'MGF e della denominazione della variabile t invece di λ , la risposta che hai appena pubblicato è identica a questa uno. tXtXtλ
whuber

1
Hai ragione, i problemi erano meno di quanto pensassi. Comunque questa risposta sarebbe meglio con qualche dettaglio in più. Domani
voterò

1

Per prima cosa dare un'intuizione, che dire dell'utilizzo del caso discreto nel campione finito per illustrare che (mettendo da parte casi come E ( X ) = 0 ) ?E(1/X)1/E(X) E(X)=0

In un campione finito, usare il termine medio per aspettativa non è così abusivo, quindi se uno ha da un lato

E(X)=1Ni=1NXi

e uno ha d'altra parte

E(1/X)=1Ni=1N1/Xi

diventa ovvio che, con ,N>1

E(1/X)=1Ni=1N1/XiNi=1NXi=1/E(X)

E(1/X)1/E(X)

0

E(1/X)=f(x)xdx1/xf(x)dx=1/E(X).

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.