Con quale probabilità una moneta è migliore dell'altra?


8

Diciamo che abbiamo due monete distorte C1ed C2entrambe hanno diverse probabilità di girare la testa.

Lanciamo C1 n1volte e otteniamo H1testa, C2 n2volte e otteniamo H2testa. E scopriamo che il rapporto delle teste per una moneta è più alto dell'altra.

Qual è la probabilità con cui possiamo dire che una moneta è migliore dell'altra? (meglio qui significa maggiore probabilità effettiva di girare la testa).


2
Non è questo un problema di verifica delle ipotesi in cui devi verificare se le stime della probabilità di alzare la testa per le monete sono diverse.
ingenuo

3
Se vuoi una probabilità che una moneta sia migliore di un'altra, puoi farlo con un approccio bayesiano; tutto ciò che serve è una distribuzione preventiva sulla probabilità. È un calcolo abbastanza semplice.
Glen_b -Restate Monica

2
Non c'è modo in cui questi dati ti possano dare la probabilità che una moneta sia migliore dell'altra . Sono necessarie ulteriori informazioni / ipotesi su una distribuzione precedente per come sono distribuite le monete. Dì in un approccio bayesiano, quindi il risultato differirà molto in base alle tue assunzioni precedenti. Ad esempio, se quelle monete sono monete regolari di quanto non siano (a priori) molto probabilmente uguali e avresti bisogno di una grande quantità di prove per trovare una buona probabilità che una sia "migliore" dell'altra (perché la probabilità è alta che tu ottenuto due monete simili che provano accidentalmente diverse)
Sesto Empirico

1
@katosh, è esatto come il precedente. Supponi di avere monete tra p = 0,49 e p = 0,51. Se in tal caso usi il presupposto che le monete siano distribuite uniformemente tra 0 e 1, le probabilità che assegni sono più simili a ipotesi errate aggiornate che a probabilità aggiornate. Troppo spesso assegnerai un'alta probabilità di essere "migliore" alla moneta sbagliata. Sarebbe sbagliato considerare il risultato come "la" probabilità che la moneta sia "migliore" dell'altra. Dati errati in = risultati errati. In questo problema non dovremmo lavorare per risolvere la matematica ma per risolvere la conoscenza.
Sesto Empirico

1
In questo modo è dichiarato correttamente. È un "credere" e questo non è così facilmente equiparabile a una "probabilità".
Sesto Empirico

Risposte:


7

È facile calcolare la probabilità di fare quell'osservazione, dato che le due monete sono uguali. Questo può essere fatto dal test esatto di Fishers . Date queste osservazioni

coin 1coin 2headsH1H2tailsn1H1n2H2

la probabilità di osservare questi numeri mentre le monete sono uguali dato il numero di tentativi , e la quantità totale di teste è n1n2H1+H2

p(H1,H2|n1,n2,H1+H2)=(H1+H2)!(n1+n2H1H2)!n1!n2!H1!H2!(n1H1)!(n2H2)!(n1+n2)!.

Ma quello che stai chiedendo è la probabilità che una moneta sia migliore. Dal momento che discutiamo di una credenza su quanto siano distorte le monete, dobbiamo usare un approccio bayesiano per calcolare il risultato. Si noti che nell'inferenza bayesiana il termine credenza è modellato come probabilità e i due termini sono usati in modo intercambiabile (s. Probabilità bayesiana ). Chiamiamo la probabilità che la moneta lanci teste . La distribuzione posteriore dopo l'osservazione, per questo è data dal teorema di Bayes : Il funzione di densità di probabilità (pdf)ipipi

f(pi|Hi,ni)=f(Hi|pi,ni)f(pi)f(ni,Hi)
f(Hi|pi,ni)è dato dalla probabilità binomiale, dal momento che l'individuo cerca sono esperimenti di Bernoulli: I presumo la conoscenza precedente su è che potrebbe trovarsi ovunque tra e con uguale probabilità, quindi . Quindi il nominatore è .
f(Hi|pi,ni)=(niHi)piHi(1pi)niHi
f(pi)pi01f(pi)=1f(Hi|pi,ni)f(pi)=f(Hi|pi,ni)

Per calcolare utilizziamo il fatto che l'integrale su un pdf deve essere uno . Quindi il denominatore sarà un fattore costante per raggiungere proprio questo. Esiste un pdf noto che differisce dal nominatore solo per un fattore costante, che è la distribuzione beta . Quindi f(ni,Hi)01f(p|Hi,ni)dp=1

f(pi|Hi,ni)=1B(Hi+1,niHi+1)piHi(1pi)niHi.

Il pdf per la coppia di probabilità di monete indipendenti è

f(p1,p2|H1,n1,H2,n2)=f(p1|H1,n1)f(p2|H2,n2).

Ora dobbiamo integrarlo nei casi in cui per scoprire quanto sia probabile la moneta sia migliore della moneta : p1>p212

P(p1>p2)=010p1f(p1,p2|H1,n1,H2,n2)dp2dp1=01B(p1;H2+1,n2H2+1)B(H2+1,n2H2+1)f(p1|H1,n1)dp1

Non posso risolvere quest'ultimo integrale analiticamente, ma uno può risolverlo numericamente con un computer dopo aver inserito i numeri. è la funzione beta e è la funzione beta incompleta. Nota che perché è una variabile continua e mai esattamente uguale a .B(,)B(;,)P(p1=p2)=0p1p2


Per quanto riguarda l'assunto precedente su e osservazioni su di esso: una buona alternativa al modello che molti credono è quella di utilizzare una distribuzione beta . Ciò porterebbe a una probabilità finale In questo modo si potrebbe modellare una forte propensione per le monete regolari con , grandi ma uguali . Sarebbe equivalente a lanciare la moneta altre volte e ricevere teste quindi equivale ad avere solo più dati. è la quantità di lanci che non dovremmo faref(pi)Beta(ai+1,bi+1)

P(p1>p2)=01B(p1;H2+1+a2,n2H2+1+b2)B(H2+1+a2,n2H2+1+b2)f(p1|H1+a1,n1+a1+b1)dp1.
aibiai+biaiai+bi se includiamo questo prima.

Il PO ha dichiarato che le due monete sono entrambe distorte in misura sconosciuta. Quindi ho capito che tutta la conoscenza deve essere dedotta dalle osservazioni. Questo è il motivo per cui ho optato per un non informativo prima che la dose non distorcesse il risultato, ad esempio verso le monete normali.

Tutte le informazioni possono essere trasmesse sotto forma di per moneta. La mancanza di un precedente informativo significa solo che sono necessarie più osservazioni per decidere quale moneta è migliore con alta probabilità.(Hi,ni)


Ecco il codice in R che fornisce una funzione usando l'uniforme precedente : P(n1, H1, n2, H2) =P(p1>p2)f(pi)=1

mp <- function(p1, n1, H1, n2, H2) {
    f1 <- pbeta(p1, H2 + 1, n2 - H2 + 1)
    f2 <- dbeta(p1, H1 + 1, n1 - H1 + 1)
    return(f1 * f2)
}

P <- function(n1, H1, n2, H2) {
    return(integrate(mp, 0, 1, n1, H1, n2, H2))
}

Puoi disegnare per diversi risultati sperimentali e fisso , ad es. con questo codice tagliato:P(p1>p2)n1n2n1=n2=4

library(lattice)
n1 <- 4
n2 <- 4
heads <- expand.grid(H1 = 0:n1, H2 = 0:n2)
heads$P <- apply(heads, 1, function(H) P(n1, H[1], n2, H[2])$value)
levelplot(P ~ H1 + H2, heads, main = "P(p1 > p2)")

P (p1> p2) per n1 = n2 = 4

Potrebbe essere necessario install.packages("lattice")prima.

Si può vedere che anche con l'uniforme precedente e una piccola dimensione del campione, la probabilità o credere che una moneta sia migliore può diventare abbastanza solida, quando e differiscono abbastanza. È necessaria una differenza relativa ancora minore se e sono ancora maggiori. Ecco un diagramma per e :H1H2n1n2n1=100n2=200

inserisci qui la descrizione dell'immagine


Martijn Weterings ha suggerito di calcolare la distribuzione della probabilità posteriore per la differenza tra e . Questo può essere fatto integrando il pdf della coppia sull'insieme : p1p2S(d)={(p1,p2)[0,1]2|d=|p1p2|}

f(d|H1,n1,H2,n2)=S(d)f(p1,p2|H1,n1,H2,n2)dγ=01df(p,p+d|H1,n1,H2,n2)dp+d1f(p,pd|H1,n1,H2,n2)dp

Ancora una volta, non un integrale che posso risolvere analiticamente, ma il codice R sarebbe:

d1 <- function(p, d, n1, H1, n2, H2) {
    f1 <- dbeta(p, H1 + 1, n1 - H1 + 1)
    f2 <- dbeta(p + d, H2 + 1, n2 - H2 + 1)
    return(f1 * f2)
}

d2 <- function(p, d, n1, H1, n2, H2) {
    f1 <- dbeta(p, H1 + 1, n1 - H1 + 1)
    f2 <- dbeta(p - d, H2 + 1, n2 - H2 + 1)
    return(f1 * f2)
}

fd <- function(d, n1, H1, n2, H2) {
    if (d==1) return(0)
    s1 <- integrate(d1, 0, 1-d, d, n1, H1, n2, H2)
    s2 <- integrate(d2, d, 1, d, n1, H1, n2, H2)
    return(s1$value + s2$value)
}

Ho tracciato per , , e tutti i valori di :f(d|n1,H1,n2,H2)n1=4H1=3n2=4H2

n1 <- 4
n2 <- 4
H1 <- 3
d <- seq(0, 1, length = 500)

get_f <- function(H2) sapply(d, fd, n1, H1, n2, H2)
dat <- sapply(0:n2, get_f)

matplot(d, dat, type = "l", ylab = "Density",
        main = "f(d | 4, 3, 4, H2)")
legend("topright", legend = paste("H2 =", 0:n2),
       col = 1:(n2 + 1), pch = "-")

inserisci qui la descrizione dell'immagine

Puoi calcolare la probabilità diessere al di sopra di un valore di . Ricorda che la doppia applicazione dell'integrale numerico comporta un errore numerico. Ad esempio, dovrebbe sempre essere uguale a poiché assume sempre un valore compreso tra e . Ma il risultato spesso si discosta leggermente.|p1p2|dintegrate(fd, d, 1, n1, H1, n2, H2)integrate(fd, 0, 1, n1, H1, n2, H2)1d01


Non conosco il valore reale di p1
Thirupathi Thangavel,

1
Mi dispiace per la mia cattiva notazione 😅 ma non è necessario inserire un valore fisso per . La (ora modificata) è la variabile su cui si integra. Proprio come è possibile integrare senza avere un valore fisso per . p1p101x2dxx
Katosh,

1
L'esatto test di Fisher riguarda in particolare l'ipotesi che le monete abbiano la stessa probabilità e che i totali marginali siano fissi . Questo non è il caso di questo problema con le monete. Se esegui nuovamente il test, potresti osservare un'altra quantità totale di teste.
Sesto Empirico

@MartijnWeterings nel mio caso, la probabilità di girare la testa per una moneta è sempre fissa. Non è abbastanza?
Thirupathi Thangavel,

1
@ThirupathiThangavel il problema con il test di Fisher riguarda i totali marginali non fissi. Il modello esatto del test presuppone che la probabilità delle teste sia la stessa e fissa, ma anche i margini sono fissati prima dell'esperimento. Quella seconda parte non è il caso. Ciò dà una probabilità condizionale diversa per valori estremi. Nel complesso il test di Fisher sarà conservativo. La probabilità del risultato data l'ipotesi VERA (cioè probabilità fissa e simile per le teste, ma non necessariamente totali marginali fissi) è inferiore al calcolo (si ottengono valori p più alti).
Sesto Empirico

2

Ho fatto una simulazione numerica con R, probabilmente stai cercando una risposta analitica, ma ho pensato che potesse essere interessante da condividere.

set.seed(123)
# coin 1
N1 = 20
theta1 = 0.7

toss1 <- rbinom(n = N1, size = 1, prob = theta1)

# coin 2
N2 = 25
theta2 = 0.5

toss2 <- rbinom(n = N2, size = 1, prob = theta2)

# frequency
sum(toss1)/N1 # [1] 0.65
sum(toss2)/N2 # [1] 0.52

In questo primo codice, simulo semplicemente il lancio di due monete. Qui puoi vedere ovviamente che theta1 > theta2, quindi ovviamente la frequenza di H1sarà maggiore di H2. Si noti la diversa N1, N2le dimensioni.

Vediamo cosa possiamo fare con diversi thetas. Si noti che il codice non è ottimale. Affatto.

simulation <- function(N1, N2, theta1, theta2, nsim = 100) {
  count1 <- count2 <- 0

  for (i in 1:nsim) {
    toss1 <- rbinom(n = N1, size = 1, prob = theta1)
    toss2 <- rbinom(n = N2, size = 1, prob = theta2)

    if (sum(toss1)/N1 > sum(toss2)/N2) {count1 = count1 + 1} 
    #if (sum(toss1)/N1 < sum(toss2)/N2) {count2 = count2 + 1} 
  }

  count1/nsim

}
set.seed(123)
simulation(20, 25, 0.7, 0.5, 100)
#[1] 0.93

Quindi 0.93 è la frequenza dei tempi (su 100) in cui la prima moneta aveva più teste. Questo sembra ok, guardando theta1e theta2usato.

Vediamo con due vettori di thetas.

theta1_v <- seq(from = 0.1, to = 0.9, by = 0.1)
theta2_v <- seq(from = 0.9, to = 0.1, by = -0.1)

res_v <- c()
for (i in 1:length(theta1_v)) {

  res <- simulation(1000, 1500, theta1_v[i], theta2_v[i], 100)
  res_v[i] <- res

}

plot(theta1_v, res_v, type = "l")

Ricorda che res_vsono le frequenze in cui H1 > H2, su 100 simulazioni.

inserisci qui la descrizione dell'immagine

Quindi, theta1all'aumentare, aumenta anche la probabilità di H1essere più alti.

Ho fatto alcune altre simulazioni e sembra che le dimensioni N1, N2sono meno importanti.

Se hai familiarità con Rquesto codice, puoi utilizzare questo codice per far luce sul problema. Sono consapevole che questa non è un'analisi completa e può essere migliorata.


2
Interessante come res_vcambia continuamente quando i thetas si incontrano. Ho capito la domanda mentre si poneva riguardo al pregiudizio intrinseco delle monete dopo aver fatto una sola osservazione. Sembra che tu risponda a quali osservazioni si farebbero dopo aver conosciuto il pregiudizio.
Katosh
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.