In questa domanda popolare , la risposta molto votata rende MLE e Baum Welch separati nel raccordo HMM.
Per problemi di allenamento possiamo usare i seguenti 3 algoritmi: MLE (stima della massima verosimiglianza), allenamento di Viterbi (NON confondere con la decodifica di Viterbi), Baum Welch = algoritmo avanti-indietro
MA in Wikipedia , dice
L'algoritmo Baum-Welch utilizza il noto algoritmo EM per trovare la stima della massima verosimiglianza dei parametri
Quindi, qual è la relazione tra MLE e l'algoritmo Baum – Welch?
Il mio tentativo: l'obiettivo dell'algoritmo Baum-Welch è massimizzare la probabilità, ma utilizza un algoritmo specializzato (EM) per risolvere l'ottimizzazione. Possiamo ancora massimizzare la probabilità usando altri metodi come il gradiente decente. Questo è il motivo per cui la risposta separa due algoritmi.
Ho ragione e qualcuno può aiutarmi a chiarire?