Un webinar l'altro giorno da una società di test a / b ha fatto spiegare al loro "Data Scientist" residente che dovresti convalidare i tuoi risultati rieseguendo l'esperimento. La premessa era che se si seleziona la confidenza al 95%, c'è una probabilità del 5% (1/20) di un falso positivo. Se riesegui l'esperimento con gli stessi vincoli, ora c'è un 1/400 (suppongo che abbiano determinato questo come 0,05 ^ 2 = 1/400)
È una dichiarazione valida? (vale a dire "corri due volte, due vittorie di significatività statistica = 1/400 probabilità di falsi positivi")? Sarebbe stato un approccio migliore per aumentare il livello di significatività?
Da un punto di vista commerciale, la preoccupazione che ho è di rieseguire l'esperimento, stai esponendo più utenti a una pagina inferiore (trattamento) e perdendo così potenziali vendite.