Szukam zasobów (samouczki, podręczniki, webcast itp.), Aby dowiedzieć się więcej o Markov Chain i HMM. Pochodzę z zawodu biologa i obecnie jestem zaangażowany w projekt związany z bioinformatyką. Ponadto, jakie są niezbędne podstawy matematyczne, których potrzebuję, aby dobrze zrozumieć modele Markowa i HMM? Rozglądałem się za pomocą Google, ale jak …
Rozumiem, że HMM (ukryte modele Markowa) to modele generatywne, a CRF to modele dyskryminujące. Rozumiem również, w jaki sposób zaprojektowano i zastosowano CRF (warunkowe pola losowe). Nie rozumiem, czym różnią się od HMM? Czytałem, że w przypadku HMM możemy modelować nasz następny stan tylko na poprzednim węźle, bieżącym węźle i …
Oto moje stare pytanie Chciałbym zapytać, czy ktoś zna różnicę (jeśli istnieje jakakolwiek różnica) między modelami Hidden Markov (HMM) a Particle Filter (PF), aw konsekwencji Filtrem Kalmana, lub w jakich okolicznościach korzystamy z którego algorytmu. Jestem studentem i muszę zrobić projekt, ale najpierw muszę zrozumieć niektóre rzeczy. Tak więc, zgodnie …
W ramach mojej pracy magisterskiej pracuję nad opracowaniem modelu statystycznego dla przejść między różnymi stanami, określonego statusem serologicznym. Na razie nie podam zbyt wielu szczegółów w tym kontekście, ponieważ moje pytanie jest bardziej ogólne / teoretyczne. W każdym razie, mam intuicję, że powinienem używać ukrytego modelu Markowa (HMM); Problemem, który …
Wdrożyłem dyskretny HMM zgodnie z tym samouczkiem http://cs229.stanford.edu/section/cs229-hmm.pdf Ten samouczek i inni zawsze mówią o szkoleniu HMM, biorąc pod uwagę sekwencję obserwacji. Co się stanie, gdy mam wiele sekwencji treningowych? Czy powinienem je kolejno uruchamiać, trenując model po drugim? Inną opcją jest łączenie sekwencji w jedną i trenowanie na niej, …
Obecnie używam szkolenia Viterbi do problemu segmentacji obrazu. Chciałem wiedzieć, jakie są zalety / wady korzystania z algorytmu Baum-Welch zamiast treningu Viterbi.
Odkrywam cudowny świat tzw. „Ukrytych modeli Markowa”, zwanych również „modelami zmiany reżimu”. Chciałbym dostosować HMM w R do wykrywania trendów i punktów zwrotnych. Chciałbym zbudować model tak ogólny, jak to możliwe, aby móc przetestować go na wielu cenach. Czy ktoś może polecić papier? Widziałem (i czytałem) (więcej niż) kilka, ale …
Opracowałem system sprawdzania koncepcji rozpoznawania dźwięku za pomocą modeli mfcc i ukrytych marek. Daje obiecujące wyniki, gdy testuję system na znanych dźwiękach. Chociaż system, gdy wprowadzany jest nieznany dźwięk, zwraca wynik z najbliższym dopasowaniem, a wynik nie jest tak wyraźny, aby go wymyślić, jest to dźwięk nieznany, np .: Wytrenowałem …
Które problemy z sekwencyjnym wejściem są najbardziej odpowiednie dla każdego? Czy wymiar wejściowy określa, które z nich jest lepsze? Czy problemy wymagające „dłuższej pamięci” lepiej pasują do RNN LSTM, podczas gdy problemy z cyklicznymi wzorcami wprowadzania danych (giełda, pogoda) są łatwiejsze do rozwiązania przez HMM? Wygląda na to, że nakładają …
Rozumiem więc, że kiedy trenujesz HMM do klasyfikacji, standardowe podejście to: Rozdziel swoje zestawy danych na zestawy danych dla każdej klasy Wytrenuj jeden HMM na klasę Na zestawie testowym porównaj prawdopodobieństwo każdego modelu w celu sklasyfikowania każdego okna Ale jak mam trenować HMM w każdej klasie? Czy po prostu łączę …
Mam zestaw danych szeregów czasowych, do którego próbuję dopasować ukryty model Markowa (HMM) w celu oszacowania liczby stanów ukrytych w danych. Mój pseudo-kod do tego jest następujący: for( i in 2 : max_number_of_states ){ ... calculate HMM with i states ... optimal_number_of_states = "model with smallest BIC" ... } Teraz, …
Pasek startowy, w standardowej formie, może być używany do obliczania przedziałów ufności szacunkowych statystyk, pod warunkiem, że obserwacje są identyczne. I. Visser i in. w „ Przedziałach ufności dla parametrów ukrytego modelu Markowa ” wykorzystano parametryczny bootstrap do obliczenia CI dla parametrów HMM. Jednak, gdy dopasowujemy HMM do sekwencji obserwacji, …
Chcę użyć BIC do wyboru modelu HMM: BIC = -2*logLike + num_of_params * log(num_of_data) Jak więc policzyć liczbę parametrów w modelu HMM. Rozważ prosty 2-stanowy HMM, w którym mamy następujące dane: data = [1 2 1 1 2 2 2 1 2 3 3 2 3 2 1 2 2 …
Szukam implementacji Pythona (w czystym pythonie lub w opakowaniach istniejących) HMM i Baum-Welch. Jakieś pomysły? Właśnie przeszukałem google i znalazłem naprawdę kiepski materiał w odniesieniu do innych technik uczenia maszynowego. Czemu?
Używamy plików cookie i innych technologii śledzenia w celu poprawy komfortu przeglądania naszej witryny, aby wyświetlać spersonalizowane treści i ukierunkowane reklamy, analizować ruch w naszej witrynie, i zrozumieć, skąd pochodzą nasi goście.
Kontynuując, wyrażasz zgodę na korzystanie z plików cookie i innych technologii śledzenia oraz potwierdzasz, że masz co najmniej 16 lat lub zgodę rodzica lub opiekuna.