Sto usando la formula del test ab bayesiano per calcolare i risultati del test AB usando la metodologia bayesiana.
dove
- in uno più il numero di successi per A
- in uno più il numero di errori per A
- in uno più il numero di successi per B.
- in uno più il numero di errori per B.
- è la funzione Beta
Dati di esempio:
control: 1000 trials with 78 successes
test: 1000 trials with 100 successes
Un test prop standard non bayesiano mi dà risultati significativi (p <10%):
prop.test(n=c(1000,1000), x=c(100,78), correct=F)
# 2-sample test for equality of proportions without continuity correction
#
# data: c(100, 78) out of c(1000, 1000)
# X-squared = 2.9847, df = 1, p-value = 0.08405
# alternative hypothesis: two.sided
# 95 percent confidence interval:
# -0.0029398 0.0469398
# sample estimates:
# prop 1 prop 2
# 0.100 0.078
mentre la mia implementazione della formula di Bayes (usando le spiegazioni nel link) mi ha dato risultati molto strani:
# success control+1
a_control <- 78+1
# failures control+1
b_control <- 1000-78+1
# success control+1
a_test <- 100+1
# failures control+1
b_test <- 1000-100+1
is_control_better <- 0
for (i in 0:(a_test-1) ) {
is_control_better <- is_control_better+beta(a_control+i,b_control+b_test) /
(b_test+i)*beta(1+i,b_test)*beta(a_control,b_control)
}
round(is_control_better, 4)
# [1] 0
ciò significa che è , il che non ha alcun senso dato questi dati.
Qualcuno potrebbe chiarire?
p-value
tag poiché non è correlato.
p-value
tag? Pensavo che i bayesiani si fossero rifiutati di avere qualcosa a che fare con i valori p.