questo documento potrebbe essere interessante:
http://arxiv.org/pdf/0906.4032v1.pdf
Fornisce un bel riassunto di alcuni approcci frequentisti e bayesiani al problema dei due campioni e discute sia i casi parametrici che non parametrici.
Potrebbe aggiungere qualcosa alle altre risposte per fare un semplice esempio. Diciamo che hanno due insiemi di dati ed y dove ogni x i ed ogni y j è o un 0 o 1 . Assumi un modello iid di Bernoulli in entrambi i casi, quindi ogni x i ∼ B e r n ( p ) e ogni y i ∼ B e r n ( q ) . Il tuo scenario di test di ipotesi sia in ambito frequentista che bayesiano può essere:xyxiyj01xi∼Bern(p)yi∼Bern(q)
H0:p=q
non necessariamente uguale.H1:p,q
Le probabilità per i dati in ciascun caso sono:
Sotto : L 0 ( p ) = f ( x , y ; p ) = ∏ i p i ( 1 - p ) 1 - i ∏ j p j ( 1 - p ) 1 - jH0L0(p)=f(x,y;p)=∏ipi(1−p)1−i∏jpj(1−p)1−j
H1L1(p,q)=f(x,y;p,q)=∏ipi(1−p)1−i∏jqj(1−q)1−j
H0q=p
W=−2log{L0(pmax)L1(pmax,qmax)},
pmax,qmaxpqpmaxpmaxWχ21H0
p∼π0H0p,q∼π1H1
BF=f(x,y|H0)f(x,y|H1)=∫10L0(p)π0(p)dp∫10∫10L1(p,q)π1(p,q)dpdq.
The Bayes factor can be combined with some prior beliefs on the probability of H0 or H1 being true, to give the probability of H0 versus H1 after seeing the data. If we assume apriori that each hypothesis is equally likely, so p(H0)=p(H1)=1/2, then this gives:
p(H0|x,y)p(H1|x,y)=BF×p(H0)p(H1)=BF×1/21/2=BF.
Intuitively, if this ratio is >1, then the posterior probability of H0 is larger than H1, so you would say that H0 has a higher probability of being true under these assumptions for the prior and model.
One nice thing about the Bayes factor is how it automatically penalises more complex models (such as H1 here). A nice paper offering some more intuition is here: http://quasar.as.utexas.edu/papers/ockham.pdf.
Hope that helps along with the other answers already posted.