In parole povere, e senza simboli matematici, in precedenza si intendono le credenze iniziali su un evento in termini di distribuzione di probabilità . Quindi si imposta un esperimento e si ottengono alcuni dati, quindi si "aggiorna" la propria convinzione (e quindi la distribuzione di probabilità) in base al risultato dell'esperimento (distribuzione di probabilità a posteriori).
Esempio:
supponiamo che ci vengano date due monete. Ma non sappiamo quale moneta è falsa. La moneta 1 è imparziale (HEADS e TAILS hanno una probabilità del 50%) e la moneta 2 è distorta, diciamo, sappiamo che dà a HEADS una probabilità del 60%. Matematicamente:
Dato che abbiamo HEADS, la probabilità che sia Coin 1 è 0.4 e probabilità che sia Coin 2 è 0.6
p(H|Coin1)=0.4
p(H|Coin2)=0.6
Quindi, questo è tutto ciò che sappiamo prima di iniziare un esperimento.
Ora sceglieremo una moneta lanciandola e, in base alle informazioni su ciò che abbiamo (H o T), indovineremo quale moneta abbiamo scelto (moneta 1 o moneta 2).
Inizialmente supponiamo che entrambe le monete abbiano le stesse probabilità, perché non abbiamo ancora informazioni. Questo è il nostro prior . È una distribuzione uniforme .p(Coin1)=p(Coin2)=0.5
Ora prendiamo a caso una moneta, la lanciamo e abbiamo una TESTA. In questo momento succede tutto. Calcoliamo la probabilità / distribuzione posteriore usando la formula bayesiana:
p(Coin1|H)=p(H|Coin1)p(Coin1)p(H|Coin1)p(Coin1)+p(H|Coin2)p(Coin2)=0.4×0.50.4×0.5+0.6×0.5=0.4
p(Coin2|H)=p(H|Coin2)p(Coin2)p(H|Coin1)p(Coin1)+p(H|Coin2)p(Coin2)=0.6×0.50.4×0.5+0.6×0.5=0.6
Quindi, inizialmente avevamo probabilità per ogni moneta, ma ora dopo l'esperimento le nostre credenze sono cambiate, ora crediamo che la moneta sia Coin 1 con probabilità 0.4 ed è Coin 2 con probabilità 0.6. Questa è la nostra distribuzione posteriore , distribuzione di Bernoulli .0.5
Questo è il principio base dell'inferenza bayesiana e delle statistiche utilizzate nell'apprendimento automatico.