Se


9

Questo non è un compito.

Lascia che X sia una variabile casuale. Se E[X]=kR e Var[X]=0 , segue che Pr(X=k)=1 ?

Intuitivamente, questo sembra ovvio, ma non sono sicuro di come lo dimostrerei. So per certo che dalle ipotesi segue che E[X2]=k2 . Quindi

(Rx dF(x))2=Rx2 dF(x).
Questo non sembra portarmi da nessuna parte. Potrei provare
Var[X]=E[(Xk)2].
Ora da (Xk)20 , ne consegue che E[(Xk)2]0 pure.

Ma se dovessi usare l'uguaglianza,

E[(Xk)2]=0
allora il mio istinto è che (Xk)20 , in modo che Xk .

Come lo saprei? Suppongo una prova per contraddizione.

Se, al contrario, Xk per tutti X , allora (Xk)2>0 , e E[(Xk)2]>0 per tutti X . Abbiamo una contraddizione, quindi Xk .

La mia prova è valida - e se è così, c'è forse un modo migliore per dimostrare questa affermazione?


@ user777 Ho provato questo metodo originariamente (come puoi vedere nel mio Equazione ), ma non ero sicuro di come procedere.
Rx dF(x)=Rx2 dF(x)
Clarinetto il

3
Credo che la disuguaglianza di Chebyshev risponda immediatamente a questa domanda.
whuber

@whuber: almeno la dichiarazione di Wikipedia della disuguaglianza di Chebyshev richiede esplicitamente una varianza diversa da zero . Non vedo davvero se abbiamo bisogno di una sorta di prova elementare per il caso della varianza zero ...
Stephan Kolassa,

1
@Stephan Potresti facilmente combinare qualsiasi distribuzione non generata con range e applicare la disuguaglianza per mostrare che per tutti e tutti . Pr ( | X - k | > δ ) ε ε > 0 δ > 0(δ,δ)Pr(|Xk|>δ)εε>0δ>0
whuber

Risposte:


6

Ecco una prova teorica di misura per integrare gli altri, usando solo le definizioni. Lavoriamo su uno spazio di probabilità . Nota che e considera l'integrale . Supponiamo che per alcuni , esista tale che su e . Quindi approssima dal basso, quindi dalla definizione standard di come il supremo di integrali di funzioni semplici che si avvicinano dal basso, A P ( d ω ) = ϵ P ( A ) > 0 , ϵ > 0(Ω,F,P)E Y : = Y ( ω ) P ( d ω ) ϵ > 0 A F Y > ϵ A P ( A ) > 0 ϵ I A Y E Y E Y ϵ IY:=(XEX)20EY:=Y(ω)P(dω)ϵ>0AFY>ϵAP(A)>0ϵIAYEY

EYϵIAP(dω)=ϵP(A)>0,
che è una contraddizione. Pertanto, , . Fatto.ϵ>0P({ω:Y>ϵ})=0

5

Dimostralo con la contraddizione. Con la definizione della varianza e le tue ipotesi, hai

0=VarX=R(xk)2f(x)dx,

dove è la densità di probabilità di . Si noti che entrambi e sono non negativo.fX(xk)2f(x)

Ora, se , alloraP(X=k)<1

U:=(R{k})f1(]0,[)

ha misura maggiore di zero, e . Ma allorakU

U(xk)2f(x)dx>0,

(alcuni argomenti in stile potrebbero essere inclusi qui) e quindiϵ

0=VarX=R(xk)2f(x)dxU(xk)2f(x)dx>0,

e la tua contraddizione.


2

Che cos'è ? È lo stesso di di?XkX=k

ETA: Iirc,XkX(ω)=k  ωΩX=k a.s.

Ad ogni modo, è ovvio che

(XE[X])20

supporre

E[XE[X])2]=0

Poi

(XE[X])2=0 a.s.

L'ultimo passo che credo riguarda la continuità della probabilità ... o quello che hai fatto (hai ragione).


C'è anche la disuguaglianza di Chebyshev :

ϵ>0 ,

P(|Xk|ϵ)0ϵ2=0

P(|Xk|ϵ)=0

P(|Xk|<ϵ)=1

Di nuovo a parlare .


A proposito perché è quello

Rx dF(x)=Rx2 dF(x)

?

Mi sembra che mentreR H S = k 2LHS=kRHS=k2


1
Sì, hai ragione. Ho curato il post
Clarinetist il

@Clarinetist Anche il mio è stato modificato: P
BCLC il
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.