Pytania otagowane jako hidden-markov-model

Ukryte modele Markowa są używane do modelowania systemów, które zakłada się, że są procesami Markowa ze stanami ukrytymi (tj. Nieobserwowanymi).


2
Znaczenie początkowych probabilitów przejścia w ukrytym modelu Markowa
Jakie są zalety podania pewnych wartości początkowych prawdopodobieństwom przejścia w Ukrytym Modelu Markowa? W końcu system się ich nauczy, więc po co podawać wartości inne niż losowe? Czy algorytm bazowy robi różnicę, taką jak Baum – Welch? Jeśli bardzo dokładnie znam prawdopodobieństwa przejścia na początku, a moim głównym celem jest …

3
Łańcuchy Markowa vs. HMM
Łańcuchy Markowa mają dla mnie sens, mogę je wykorzystać do modelowania probabilistycznych zmian stanu w rzeczywistych problemach. Potem jest HMM. Mówi się, że HMM są bardziej odpowiednie do modelowania wielu problemów niż MC. Jednak problemy, o których wspominają ludzie, są nieco skomplikowane do zrozumienia, na przykład przetwarzanie mowy. Więc moje …


1
Czy istnieje koncepcja „wystarczającej” ilości danych do szkolenia modeli statystycznych?
Pracuję nad dość wieloma modelami statystycznymi, takimi jak Ukryte Modele Markowa i Modele Mieszanki Gaussa. Widzę, że szkolenie dobrych modeli w każdym z tych przypadków wymaga dużej (> 20000 zdań dla HMM) ilości danych, które są pobierane z podobnych środowisk, jak ostateczne użycie. Moje pytanie brzmi: Czy w literaturze istnieje …

3
Różnica między MLE i Baum Welch na złączach HMM
W tym popularnym pytaniu , wysoko oceniona odpowiedź powoduje, że MLE i Baum Welch są osobni w dopasowaniu HMM. W przypadku problemu szkoleniowego możemy użyć następujących 3 algorytmów: MLE (szacowanie maksymalnego prawdopodobieństwa), szkolenie Viterbi (NIE mylić z dekodowaniem Viterbi), Baum Welch = algorytm przewijania do przodu ALE w Wikipedii , …

1
Ukryty model Markowa do przewidywania zdarzeń
Pytanie : Czy konfiguracja poniżej jest sensowną implementacją modelu Hidden Markov? Mam zestaw danych 108,000obserwacji (wykonanych w ciągu 100 dni) i przybliżonych 2000zdarzeń z całego okresu obserwacji. Dane wyglądają jak na poniższym rysunku, gdzie obserwowana zmienna może przyjąć 3 wartości dyskretne[ 1 , 2 , 3 ][1,2,3][1,2,3] a czerwone kolumny …

2
Parametryczne, półparametryczne i nieparametryczne ładowanie początkowe dla modeli mieszanych
Z tego artykułu pochodzą następujące przeszczepy . Jestem nowicjuszem w bootstrapie i próbuję zaimplementować parametryczne, semiparametryczne i nieparametryczne bootstrapowanie dla liniowego modelu mieszanego z R bootpakietem. Kod R. Oto mój Rkod: library(SASmixed) library(lme4) library(boot) fm1Cult <- lmer(drywt ~ Inoc + Cult + (1|Block) + (1|Cult), data=Cultivation) fixef(fm1Cult) boot.fn <- function(data, …
9 r  mixed-model  bootstrap  central-limit-theorem  stable-distribution  time-series  hypothesis-testing  markov-process  r  correlation  categorical-data  association-measure  meta-analysis  r  anova  confidence-interval  lm  r  bayesian  multilevel-analysis  logit  regression  logistic  least-squares  eda  regression  notation  distributions  random-variable  expected-value  distributions  markov-process  hidden-markov-model  r  variance  group-differences  microarray  r  descriptive-statistics  machine-learning  references  r  regression  r  categorical-data  random-forest  data-transformation  data-visualization  interactive-visualization  binomial  beta-distribution  time-series  forecasting  logistic  arima  beta-regression  r  time-series  seasonality  large-data  unevenly-spaced-time-series  correlation  statistical-significance  normalization  population  group-differences  demography 
Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.