Czy istnieją jakieś szybkie alternatywy dla algorytmu EM do uczenia się modeli z ukrytymi zmiennymi (zwłaszcza pLSA)? Nie przeszkadza mi poświęcanie precyzji na rzecz prędkości.
Powiedzmy, że mam populację 50 milionów unikalnych rzeczy i pobieram 10 milionów próbek (z wymianą) ... Pierwszy wykres, do którego załączyłem pokazuje, ile razy próbkuję tę samą „rzecz”, co jest stosunkowo rzadkie populacja jest większa niż moja próba. Jeśli jednak moja populacja liczy tylko 10 milionów rzeczy, a ja pobieram …
Próbuję oddzielić dwie grupy wartości od jednego zestawu danych. Mogę założyć, że jedna z populacji jest normalnie rozmieszczona i ma co najmniej połowę wielkości próbki. Wartości drugiego są zarówno niższe, jak i wyższe niż wartości pierwszego (rozkład jest nieznany). Staram się znaleźć górne i dolne granice, które obejmowałyby normalnie rozłożoną …
Mam kilka prostych pytań koncepcyjnych, które chciałbym wyjaśnić w odniesieniu do MLE (oszacowanie maksymalnego prawdopodobieństwa) i jaki ma związek z EM (maksymalizacja oczekiwań). Jak rozumiem, jeśli ktoś powie „Użyliśmy MLE”, czy to automatycznie oznacza, że ma wyraźny model pliku PDF swoich danych? Wydaje mi się, że odpowiedź na to pytanie …
Załóżmy, że mam zestaw niezależnych, identycznie rozmieszczonych obserwacji jednowymiarowych oraz dwie hipotezy na temat sposobu generowania :xxxxxx H0H0H_0 : jest rysowany z pojedynczego rozkładu Gaussa z nieznaną średnią i wariancją.xxx HAHAH_A : z mieszaniny dwóch Gaussów o nieznanej średniej, wariancji i współczynniku mieszania.xxx Jeśli dobrze rozumiem, są to modele zagnieżdżone, …
Jakie są zalety podania pewnych wartości początkowych prawdopodobieństwom przejścia w Ukrytym Modelu Markowa? W końcu system się ich nauczy, więc po co podawać wartości inne niż losowe? Czy algorytm bazowy robi różnicę, taką jak Baum – Welch? Jeśli bardzo dokładnie znam prawdopodobieństwa przejścia na początku, a moim głównym celem jest …
Model regresji Poissona napompowany zerem jest definiowany dla próbki przez Y i = { 0 z prawdopodobieństwem p i + ( 1 - p i ) e - λ i k z prawdopodobieństwem ( 1 - p i ) e - λ i λ k i / k ! i …
Czy ktoś może wyjaśnić, w jaki sposób ukryte modele Markowa są powiązane z maksymalizacją oczekiwań? Przejrzałem wiele linków, ale nie mogłem uzyskać jasnego widoku. Dzięki!
Próbuję zaimplementować algorytm EM dla następującego modelu analizy czynnikowej; W.jot= μ + B ajot+ ejotdlaj = 1 , … , nWj=μ+Baj+ejforj=1,…,nW_j = \mu+B a_j+e_j \quad\text{for}\quad j=1,\ldots,n gdzie oznacza p-wymiarowy wektor losowej, J jest P-wymiarowy wektor zmiennych utajonych i B jest macierzą PxQ parametrów.W.jotWjW_jzajotaja_jbBB W wyniku innych założeń zastosowanych w modelu …
W tym popularnym pytaniu , wysoko oceniona odpowiedź powoduje, że MLE i Baum Welch są osobni w dopasowaniu HMM. W przypadku problemu szkoleniowego możemy użyć następujących 3 algorytmów: MLE (szacowanie maksymalnego prawdopodobieństwa), szkolenie Viterbi (NIE mylić z dekodowaniem Viterbi), Baum Welch = algorytm przewijania do przodu ALE w Wikipedii , …
Pytanie oparte jest na pracy zatytułowanej: Rekonstrukcja obrazu w rozproszonej tomografii optycznej z wykorzystaniem sprzężonego radiacyjnego modelu transportowo-dyfuzyjnego Link do pobrania Autorzy stosują algorytm EM z rzadkości nieznanego wektora celu oszacowania pikseli obrazu. Model podajel1l1l_1μμ\mu y=Aμ+e(1)(1)y=Aμ+ey=A\mu + e \tag{1} Oszacowanie podano w równaniu (8) as μ^=argmaxlnp(y|μ)+γlnp(μ)(2)(2)μ^=argmaxlnp(y|μ)+γlnp(μ)\hat{\mu} = \arg max {\ln …
Obecnie uczę się hierarchicznych modeli bayesowskich przy użyciu JAGS z R, a także pymc przy użyciu Pythona ( „Bayesian Methods for Hackers” ). Mogę uzyskać intuicję z tego postu : „skończysz ze stosem liczb, które wyglądają” tak, jakby „udało ci się w jakiś sposób pobrać niezależne próbki ze skomplikowanej dystrybucji, …
Studiuję model mieszanki Gaussa i sam wymyślam to pytanie. Załóżmy, że podstawowe dane są generowane z mieszaniny rozkładu Gaussa, a każdy z nich ma średni wektor , gdzie a każdy z nich ma takie same współ- macierz wariancji i załóżmy, że jest macierzą diagonalną. Przyjmijmy, że stosunek zmieszania wynosi , …
Mam model mieszanki, w którym chcę znaleźć estymator maksymalnego prawdopodobieństwa dla danego zestawu danych i zestawu częściowo zaobserwowanych danych . I realizowane zarówno E etapie (obliczenie oczekiwania dane i aktualnych parametrów ), i M-etapie, w celu zminimalizowania negatywnych log-Likelihood względu na spodziewany .xxxzzzzzzxxxθkθk\theta^kzzz Jak rozumiem, maksymalne prawdopodobieństwo wzrasta z każdą …
Załóżmy, że masz populację NNN jednostki, każda z losową zmienną Xi∼Poisson(λ)Xi∼Poisson(λ)X_i \sim \text{Poisson}(\lambda). Ty obserwujeszn=N−n0n=N−n0n = N-n_0wartości dla dowolnej jednostki, dla której . Chcemy oszacowania .Xi>0Xi>0X_i > 0λλ\lambda Istnieją metody chwil i warunkowe maksymalne prawdopodobieństwo uzyskania odpowiedzi, ale chciałem wypróbować algorytm EM. Otrzymuję algorytm EM: gdzie indeks dolny wskazuje wartość …
Używamy plików cookie i innych technologii śledzenia w celu poprawy komfortu przeglądania naszej witryny, aby wyświetlać spersonalizowane treści i ukierunkowane reklamy, analizować ruch w naszej witrynie, i zrozumieć, skąd pochodzą nasi goście.
Kontynuując, wyrażasz zgodę na korzystanie z plików cookie i innych technologii śledzenia oraz potwierdzasz, że masz co najmniej 16 lat lub zgodę rodzica lub opiekuna.