Perché il numero di variabili uniformi continue su (0,1) necessarie affinché la loro somma superi una ha media


14

Sommiamo un flusso di variabili casuali, ; lascia che sia il numero di termini di cui abbiamo bisogno affinché il totale superi uno, ovvero è il numero più piccolo tale cheXiiidU(0,1)YY

X1+X2++XY>1.

Perché la media di Y uguale alla costante Eulero e?

E(Y)=e=10!+11!+12!+13!+

Sto pubblicando questo nello spirito di una domanda di studio autonomo, anche se penso di aver visto questa domanda per la prima volta oltre un decennio fa. Non riesco a ricordare come ho risposto allora, anche se sono sicuro che non mi è venuto in mente quando ho visto questa proprietà menzionata nel thread Approssimazione e usando la simulazione Monte Carlo . Dal momento che sospetto che questa sia una domanda di esercizio abbastanza comune, ho optato per presentare uno schizzo piuttosto che una soluzione completa, anche se suppongo che il principale "avviso di spoiler" appartenga alla domanda stessa!
Silverfish,

Rimango molto interessato ad approcci alternativi; So che questo è stato incluso come una domanda nella teoria della probabilità di Gnedenko (originariamente in russo ma ampiamente tradotto), ma non so quale soluzione ci si aspettasse lì, o posta altrove.
Silverfish,

1
Ho scritto una soluzione di simulazione in MATLAB usando il tuo metodo simplex. Non sapevo del collegamento ai simplex, è così inaspettato.
Aksakal,

Risposte:


14

Prima osservazione: Y ha un CDF più piacevole di PMF

La funzione di massa di probabilità pY(n) è la probabilità che n sia "appena sufficiente" perché il totale superi l'unità, cioè X1+X2+Xn supera uno mentre X1++Xn1 fa non.

La distribuzione cumulativa FY(n)=Pr(Yn) richiede semplicemente che n sia "sufficiente", cioè i=1nXi>1 senza alcuna limitazione di quanto. Sembra un evento molto più semplice da gestire con la probabilità di.

Seconda osservazione: Y assume valori interi non negativi in ​​modo che E(Y) possa essere scritto in termini di CDF

Chiaramente Y può assumere solo i valori in {0,1,2,} , in modo da poter scrivere sua media in termini di CDF complementare , F¯Y .

E(Y)=n=0F¯Y(n)=n=0(1FY(n))

In effetti Pr(Y=0) e Pr(Y=1) sono entrambi zero, quindi i primi due termini sono E(Y)=1+1+ .

Per quanto riguarda i termini successivi, se FY(n) è la probabilità che i=1nXi>1 , quale evento è F¯Y(n) la probabilità di?

Terza osservazione: il (iper) volume di un n -simplex è 1n!

Il n -simplex ho in mente occupa il volume sotto un'unità standard (n1) -simplex in tutto positivo orthant di Rn : è l'inviluppo convesso di (n+1) vertici, in particolare l'origine più i vertici dell'unità (n1) -simplex a (1,0,0,) , (0,1,0,) ecc.

volumi di 2-simplex e 3-simplex

Ad esempio, il 2-simplex sopra con ha area 1x1+x21 e il 3-simplex conx1+x2+x31ha volume112x1+x2+x31 .16

Per una prova che procede valutando direttamente un integrale per la probabilità dell'evento descritto da , e collegamenti ad altri due argomenti, vedere questo thread Math SE . Anche il thread correlato può essere interessante: esiste una relazione tra e e la somma dei volumi n -simplexes?F¯Y(n)en


1
Questo è un approccio geometrico interessante e facile da risolvere in questo modo. Bellissimo. Ecco l'equazione per un volume di un simplex. Non credo che ci possa essere una soluzione più elegante, francamente
Aksakal,

1
+1 Puoi anche ottenere la distribuzione completa di da uno qualsiasi degli approcci nel mio post su stats.stackexchange.com/questions/41467/… . Y
whuber

Se mi sono imbattuto in questa soluzione, non c'è modo in cui potrebbero costringermi a farlo diversamente in una scuola :)
Aksakal

11

Correzione . Sia U i = X 1 + X 2 + + X in1 sono le parti frazionarie delle somme parziali per i = 1 , 2 , , n . L'uniformità indipendente di X 1 e X i + 1 garantisce che U i + 1 ha la stessa probabilità di superare U i in quanto deve essere inferiore. Ciò implica chetutto n ! gli ordinamenti della sequenza ( U i ) sono ugualmente probabili.

Ui=X1+X2++Ximod1
i=1,2,,nX1Xi+1Ui+1Uin!(Ui)

Data la sequenza , possiamo recuperare la sequenza X 1 , X 2 , ... , X n . Per vedere come, notaloU1,U2,,UnX1,X2,,Xn

  • perché entrambi sono compresi tra 0 e 1 .U1=X101

  • Se , allora X i + 1 = U i + 1 - U i .Ui+1UiXi+1=Ui+1Ui

  • Otherwise, Ui+Xi+1>1, whence Xi+1=Ui+1Ui+1.

There is exactly one sequence in which the Ui are already in increasing order, in which case 1>Un=X1+X2++Xn. Being one of n! equally likely sequences, this has a chance 1/n! of occurring. In all the other sequences at least one step from Ui to Ui+1 is out of order. This implies the sum of the Xi had to equal or exceed 1. Thus we see that

Pr(Y>n)=Pr(X1+X2++Xn1)=Pr(X1+X2++Xn<1)=1n!.

This yields the probabilities for the entire distribution of Y, since for integral n1

Pr(Y=n)=Pr(Y>n1)Pr(Y>n)=1(n1)!1n!=n1n!.

Moreover,

E(Y)=n=0Pr(Y>n)=n=01n!=e,

QED.


I have read it a couple of times, and I almost get it... I posted a couple of questions in the Mathematics SE as a result of the e constant computer simulation. I don't know if you saw them. One of them came back before your kind explanation on Tenfold about the ceiling function of the 1/U(0,1) and the Taylor series. The second one was exactly about this topic, never got a response, until now...
Antoni Parellada


And could you add the proof with the uniform spacings as well?
Xi'an

@Xi'an Could you indicate more specifically what you mean by "uniform spacings" in this context?
whuber

I am referring to your Poisson process simulation via the uniform spacing, in the thread Approximate e using Monte Carlo Simulation for which I cannot get a full derivation.
Xi'an

6

In Sheldon Ross' A First Course in Probability there is an easy to follow proof:

Modifying a bit the notation in the OP, UiiidU(0,1) and Y the minimum number of terms for U1+U2++UY>1, or expressed differently:

Y=min{n:i=1nUi>1}

If instead we looked for:

Y(u)=min{n:i=1nUi>u}
for u[0,1], we define the f(u)=E[Y(u)], expressing the expectation for the number of realizations of uniform draws that will exceed u when added.

We can apply the following general properties for continuous variables:

E[X]=E[E[X|Y]]=E[X|Y=y]fY(y)dy

to express f(u) conditionally on the outcome of the first uniform, and getting a manageable equation thanks to the pdf of XU(0,1), fY(y)=1. This would be it:

(1)f(u)=01E[Y(u)|U1=x]dx

If the U1=x we are conditioning on is greater than u, i.e. x>u, E[Y(u)|U1=x]=1. If, on the other hand, x<u, E[Y(u)|U1=x]=1+f(ux), because we already have drawn 1 uniform random, and we still have the difference between x and u to cover. Going back to equation (1):

f(u)=1+0xf(ux)dx
, and with substituting w=ux we would have f(u)=1+0xf(w)dw.

If we differentiate both sides of this equation, we can see that:

f(u)=f(u)f(u)f(u)=1

with one last integration we get:

log[f(u)]=u+cf(u)=keu

We know that the expectation that drawing a sample from the uniform distribution and surpassing 0 is 1, or f(0)=1. Hence, k=1, and f(u)=eu. Therefore f(1)=e.


I do like the manner in which this generalises the result.
Silverfish
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.