Ho letto che HMM, filtri antiparticolato e filtri Kalman sono casi speciali di reti Bayes dinamiche. Tuttavia, conosco solo HMM e non vedo la differenza con le reti Bayes dinamiche.
Qualcuno potrebbe spiegare per favore?
Sarebbe bello se la tua risposta potesse essere simile alla seguente, ma per le reti bayes:
Modelli nascosti di Markov
Un modello di Markov nascosto (HMM) è una 5 tupla :
- : un insieme di stati (ad esempio "inizio del fonema", "metà del fonema", "fine del fonema")
- : una serie di possibili osservazioni (segnali audio)
- : Una matrice stocastica che fornisce probabiliti ( a i j ) per passare dallo stato i allo stato j .
- : Una matrice stocastica che fornisce probabilità ( b k l ) per ottenere nello stato k l'osservazione l .
- : Distribuzione iniziale da avviare in uno degli stati.
Di solito viene visualizzato come un grafico diretto, in cui ciascun nodo corrisponde a uno stato e le probabilità di transizione sono indicate sui bordi.
I modelli nascosti di Markov sono chiamati "nascosti", perché lo stato corrente è nascosto. Gli algoritmi devono indovinarlo dalle osservazioni e dal modello stesso. Si chiamano "Markov", perché per lo stato successivo conta solo lo stato attuale.
Per gli HMM, si fornisce una topologia fissa (numero di stati, possibili bordi). Quindi ci sono 3 possibili compiti
- Valutazione : dato un MMM , quanto è probabile che ottenga osservazioni o 1 , ... , o t (algoritmo Forward)
- Decodifica : dato un HMM e osservazioni o 1 , … , o , qual è la sequenza più probabile di stati s 1 , … , s t (algoritmo di Viterbi)
- Apprendimento : impara : algoritmo Baum-Welch , che è un caso speciale di massimizzazione delle aspettative.
Reti Bayes
Le reti di Bayes sono dirette grafici aciclici (DAG) . I nodi rappresentano variabili casuali X . Per ogni X , esiste una distribuzione di probabilità che è condizionata dai genitori di X :
Sembra che ci siano (chiarire) due compiti:
- Inferenza : date alcune variabili, ottieni i valori più probabili delle altre variabili. L'inferenza esatta è NP-difficile. Approssimativamente, è possibile utilizzare MCMC.
Apprendimento : come apprendi queste distribuzioni dipende dal problema esatto ( fonte ):
- struttura nota, pienamente osservabile: stima della massima verosimiglianza (MLE)
- struttura nota, parzialmente osservabile: Expectation Maximization (EM) o Markov Chain Monte Carlo (MCMC)
- struttura sconosciuta, completamente osservabile: ricerca nello spazio modello
- struttura sconosciuta, parzialmente osservabile: ricerca EM + nello spazio modello
Reti Bayes dinamiche
Immagino che le reti dinamiche di Bayes (DBN) siano anche modelli grafici probabilistici diretti. La variabilità sembra provenire dalla rete che cambia nel tempo. Tuttavia, mi sembra che ciò equivale a copiare solo la stessa rete e connettere ogni nodo al tempo con ogni nodo corrispondente al tempo t + . È così?