W tym popularnym pytaniu , wysoko oceniona odpowiedź powoduje, że MLE i Baum Welch są osobni w dopasowaniu HMM.
W przypadku problemu szkoleniowego możemy użyć następujących 3 algorytmów: MLE (szacowanie maksymalnego prawdopodobieństwa), szkolenie Viterbi (NIE mylić z dekodowaniem Viterbi), Baum Welch = algorytm przewijania do przodu
ALE w Wikipedii , mówi
Algorytm Bauma – Welcha wykorzystuje dobrze znany algorytm EM w celu znalezienia oszacowania maksymalnego prawdopodobieństwa parametrów
Jaki jest zatem związek między MLE a algorytmem Bauma – Welcha?
Moja próba: celem algorytmu Bauma – Welcha jest maksymalizacja prawdopodobieństwa, ale wykorzystuje on specjalistyczny algorytm (EM) do rozwiązania optymalizacji. Nadal możemy zmaksymalizować prawdopodobieństwo, stosując inne metody, takie jak przyzwoity gradient. Właśnie dlatego odpowiedź rozdziela dwa algorytmy.
Czy mam rację i czy ktoś może mi pomóc w wyjaśnieniu?