Sommiamo un flusso di variabili casuali, ; lascia che sia il numero di termini di cui abbiamo bisogno affinché il totale superi uno, ovvero è il numero più piccolo tale che
Perché la media di uguale alla costante Eulero ?
Sommiamo un flusso di variabili casuali, ; lascia che sia il numero di termini di cui abbiamo bisogno affinché il totale superi uno, ovvero è il numero più piccolo tale che
Perché la media di uguale alla costante Eulero ?
Risposte:
Prima osservazione: ha un CDF più piacevole di PMF
La funzione di massa di probabilità è la probabilità che sia "appena sufficiente" perché il totale superi l'unità, cioè supera uno mentre fa non.
La distribuzione cumulativa richiede semplicemente che sia "sufficiente", cioè senza alcuna limitazione di quanto. Sembra un evento molto più semplice da gestire con la probabilità di.
Seconda osservazione: assume valori interi non negativi in modo che possa essere scritto in termini di CDF
Chiaramente può assumere solo i valori in , in modo da poter scrivere sua media in termini di CDF complementare , .
In effetti e sono entrambi zero, quindi i primi due termini sono .
Per quanto riguarda i termini successivi, se è la probabilità che , quale evento è la probabilità di?
Terza osservazione: il (iper) volume di un -simplex è
Il -simplex ho in mente occupa il volume sotto un'unità standard -simplex in tutto positivo orthant di : è l'inviluppo convesso di vertici, in particolare l'origine più i vertici dell'unità -simplex a , ecc.
Ad esempio, il 2-simplex sopra con ha area 1 e il 3-simplex conx1+x2+x3≤1ha volume1 .
Per una prova che procede valutando direttamente un integrale per la probabilità dell'evento descritto da , e collegamenti ad altri due argomenti, vedere questo thread Math SE . Anche il thread correlato può essere interessante: esiste una relazione tra e e la somma dei volumi n -simplexes?
Correzione . Sia U i = X 1 + X 2 + ⋯ + X i sono le parti frazionarie delle somme parziali per i = 1 , 2 , … , n . L'uniformità indipendente di X 1 e X i + 1 garantisce che U i + 1 ha la stessa probabilità di superare U i in quanto deve essere inferiore. Ciò implica chetutto n ! gli ordinamenti della sequenza ( U i ) sono ugualmente probabili.
Data la sequenza , possiamo recuperare la sequenza X 1 , X 2 , ... , X n . Per vedere come, notalo
perché entrambi sono compresi tra 0 e 1 .
Se , allora X i + 1 = U i + 1 - U i .
Otherwise, , whence .
There is exactly one sequence in which the are already in increasing order, in which case . Being one of equally likely sequences, this has a chance of occurring. In all the other sequences at least one step from to is out of order. This implies the sum of the had to equal or exceed . Thus we see that
This yields the probabilities for the entire distribution of , since for integral
Moreover,
QED.
In Sheldon Ross' A First Course in Probability there is an easy to follow proof:
Modifying a bit the notation in the OP, and the minimum number of terms for , or expressed differently:
If instead we looked for:
We can apply the following general properties for continuous variables:
to express conditionally on the outcome of the first uniform, and getting a manageable equation thanks to the pdf of , This would be it:
If the we are conditioning on is greater than , i.e. , If, on the other hand, , , because we already have drawn uniform random, and we still have the difference between and to cover. Going back to equation (1):
If we differentiate both sides of this equation, we can see that:
with one last integration we get:
We know that the expectation that drawing a sample from the uniform distribution and surpassing is , or . Hence, , and . Therefore