Cosa si intende con il termine "precedente" nell'apprendimento automatico


12

Sono nuovo di machine learning. Ho letto diversi articoli in cui hanno utilizzato l'apprendimento approfondito per varie applicazioni e hanno usato il termine "precedente" nella maggior parte dei casi di progettazione del modello, diciamo prima nella stima della posa del corpo umano. Qualcuno può spiegare cosa significa effettivamente. Ho potuto trovare solo la formulazione matematica di anteriore e posteriore nei tutorial.


5
È un concetto matematico, quindi sì, è formulato matematicamente. Tuttavia, la pagina di Wikipedia sembra dare molta intuizione. L'hai controllato? In tal caso, potresti dire di più su ciò che non hai capito e cosa stai cercando in una risposta?
David Richerby,

@David Richerby . Grazie per la vostra risposta. Sì, avevo controllato quella pagina di Wikipedia e ho potuto raccogliere una vaga idea che si tratti di conoscenza o informazione su una variabile. Avevo letto articoli sulla stima della posa del corpo in cui c'erano menzioni di priori di posa del corpo, precedente cinematica del corpo, modellazione dei priori sulla posa umana 3D, apprendimento dei priori, prima di stimare la posa umana 3D. Non sono riuscito a capire chiaramente cosa significhi in realtà il termine "precedente" in questo contesto.
Amy,

Risposte:


13

In parole povere, e senza simboli matematici, in precedenza si intendono le credenze iniziali su un evento in termini di distribuzione di probabilità . Quindi si imposta un esperimento e si ottengono alcuni dati, quindi si "aggiorna" la propria convinzione (e quindi la distribuzione di probabilità) in base al risultato dell'esperimento (distribuzione di probabilità a posteriori).

Esempio: supponiamo che ci vengano date due monete. Ma non sappiamo quale moneta è falsa. La moneta 1 è imparziale (HEADS e TAILS hanno una probabilità del 50%) e la moneta 2 è distorta, diciamo, sappiamo che dà a HEADS una probabilità del 60%. Matematicamente:

Dato che abbiamo HEADS, la probabilità che sia Coin 1 è 0.4 e probabilità che sia Coin 2 è 0.6

p(H|Coin1)=0.4
p(H|Coin2)=0.6

Quindi, questo è tutto ciò che sappiamo prima di iniziare un esperimento.

Ora sceglieremo una moneta lanciandola e, in base alle informazioni su ciò che abbiamo (H o T), indovineremo quale moneta abbiamo scelto (moneta 1 o moneta 2).

Inizialmente supponiamo che entrambe le monete abbiano le stesse probabilità, perché non abbiamo ancora informazioni. Questo è il nostro prior . È una distribuzione uniforme .p(Coin1)=p(Coin2)=0.5

Ora prendiamo a caso una moneta, la lanciamo e abbiamo una TESTA. In questo momento succede tutto. Calcoliamo la probabilità / distribuzione posteriore usando la formula bayesiana:

p(Coin1|H)=p(H|Coin1)p(Coin1)p(H|Coin1)p(Coin1)+p(H|Coin2)p(Coin2)=0.4×0.50.4×0.5+0.6×0.5=0.4

p(Coin2|H)=p(H|Coin2)p(Coin2)p(H|Coin1)p(Coin1)+p(H|Coin2)p(Coin2)=0.6×0.50.4×0.5+0.6×0.5=0.6

Quindi, inizialmente avevamo probabilità per ogni moneta, ma ora dopo l'esperimento le nostre credenze sono cambiate, ora crediamo che la moneta sia Coin 1 con probabilità 0.4 ed è Coin 2 con probabilità 0.6. Questa è la nostra distribuzione posteriore , distribuzione di Bernoulli .0.5

Questo è il principio base dell'inferenza bayesiana e delle statistiche utilizzate nell'apprendimento automatico.


2
Devi correggere l'esempio sopra. Questo calcolo mostra che entrambe le monete sono distorte (la prima con prob delle teste del 40% e la seconda con probabilità delle teste del 60%) Nel caso in cui la prima sia distorta È ancora una distribuzione di Bernoulli ma con probabilità P (Coin1 | H) = 5/11 e P (Coin2 | H) =
6/11

1
Dovrebbe "Dato che abbiamo TESTE, la probabilità che si tratta di moneta 1 è 0,4" essere riscritta come "Dato che abbiamo Moneta 1, la probabilità che sia TESTE è 0.4" ?
Mateen Ulhaq,

La spiegazione non spiega in termini di apprendimento automatico.
user3023715
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.