A questo si può rispondere usando la distribuzione geometrica come segue:
Il numero di guasti k - 1 prima del primo successo (teste) con una probabilità di successo p ("teste") è dato da:
p(X=k)=(1−p)k−1p
con k è il numero totale di lanci, comprese le prime "teste" che terminano l'esperimento.
E il valore atteso di X per un dato p è 1/p=2 .
La derivazione del valore atteso è disponibile qui . Gli ultimi passaggi lasciati impliciti dovrebbero essere i seguenti:
ddr11−r=1(1−r)2 da inserire nell'espressione:
. Conr=1-p, semplificaE(X)=p1−p∑x=1∞x rx=p1−p r (ddr11−r)=p1−p r 1(1−r)2r=1−p
, giustificando il suo uso sopra.]E(X)=1p
In alternativa, potremmo usare la distribuzione binomiale negativa interpretata come il numero di guasti prima del primo successo. La funzione di massa di probabilità è data come p (numero di fallimenti, n , prima di raggiungere r successi | data una certa probabilità, p , di successo in ogni prova di Bernoulli):
p(n;r,p)=(n+r−1r−1)pr(1−p)n
L'aspettativa per il numero di prove, n + r è data dalla formula generale:
r(1−p)
Dati i nostri parametri noti: r = 1 e p = 0,5 ,
E(n+r;1,0.5)=r1−p=11−0.5=2
Quindi possiamo aspettarci di fare due lanci prima di ottenere la prima testa con il numero atteso di code che è .E(n+r)−r=1
Possiamo eseguire una simulazione Monte Carlo per dimostrarlo:
set.seed(1)
p <- 1/2
reps <- 10000 # Total number of simulations.
tosses_to_HEAD <- 0 # Setting up an empty vector to add output to.
for (i in 1:reps) {
head <- 0 # Set the variable 'head' to 0 with every loop.
counter <- 0 # Same forlocal variable 'counter'.
while (head == 0) {
head <- head + rbinom(1, 1, p) # Toss a coin and add to 'head'
counter <- counter + 1 # Add 1 to 'counter'
}
tosses_to_HEAD[i] <- counter # Append number in counter after getting heads.
}
mean(tosses_to_HEAD)
[1] 2.0097