Pytania otagowane jako expectation-maximization

Algorytm optymalizacji często używany do estymacji maksymalnej wiarygodności w przypadku braku danych.


3
Oszacuj wielkość populacji, z której pobierana jest próbka, na podstawie liczby powtórzeń obserwacji
Powiedzmy, że mam populację 50 milionów unikalnych rzeczy i pobieram 10 milionów próbek (z wymianą) ... Pierwszy wykres, do którego załączyłem pokazuje, ile razy próbkuję tę samą „rzecz”, co jest stosunkowo rzadkie populacja jest większa niż moja próba. Jeśli jednak moja populacja liczy tylko 10 milionów rzeczy, a ja pobieram …

4
Oddzielenie dwóch populacji od próbki
Próbuję oddzielić dwie grupy wartości od jednego zestawu danych. Mogę założyć, że jedna z populacji jest normalnie rozmieszczona i ma co najmniej połowę wielkości próbki. Wartości drugiego są zarówno niższe, jak i wyższe niż wartości pierwszego (rozkład jest nieznany). Staram się znaleźć górne i dolne granice, które obejmowałyby normalnie rozłożoną …

2
Czy MLE zawsze oznacza, że ​​znamy plik PDF naszych danych, a EM oznacza, że ​​nie?
Mam kilka prostych pytań koncepcyjnych, które chciałbym wyjaśnić w odniesieniu do MLE (oszacowanie maksymalnego prawdopodobieństwa) i jaki ma związek z EM (maksymalizacja oczekiwań). Jak rozumiem, jeśli ktoś powie „Użyliśmy MLE”, czy to automatycznie oznacza, że ​​ma wyraźny model pliku PDF swoich danych? Wydaje mi się, że odpowiedź na to pytanie …

2
Znalezienie liczby gaussów w skończonej mieszaninie z twierdzeniem Wilksa?
Załóżmy, że mam zestaw niezależnych, identycznie rozmieszczonych obserwacji jednowymiarowych oraz dwie hipotezy na temat sposobu generowania :xxxxxx H0H0H_0 : jest rysowany z pojedynczego rozkładu Gaussa z nieznaną średnią i wariancją.xxx HAHAH_A : z mieszaniny dwóch Gaussów o nieznanej średniej, wariancji i współczynniku mieszania.xxx Jeśli dobrze rozumiem, są to modele zagnieżdżone, …

2
Znaczenie początkowych probabilitów przejścia w ukrytym modelu Markowa
Jakie są zalety podania pewnych wartości początkowych prawdopodobieństwom przejścia w Ukrytym Modelu Markowa? W końcu system się ich nauczy, więc po co podawać wartości inne niż losowe? Czy algorytm bazowy robi różnicę, taką jak Baum – Welch? Jeśli bardzo dokładnie znam prawdopodobieństwa przejścia na początku, a moim głównym celem jest …



1
Jak zdefiniować macierz jako dodatnią?
Próbuję zaimplementować algorytm EM dla następującego modelu analizy czynnikowej; W.jot= μ + B ajot+ ejotdlaj = 1 , … , nWj=μ+Baj+ejforj=1,…,nW_j = \mu+B a_j+e_j \quad\text{for}\quad j=1,\ldots,n gdzie oznacza p-wymiarowy wektor losowej, J jest P-wymiarowy wektor zmiennych utajonych i B jest macierzą PxQ parametrów.W.jotWjW_jzajotaja_jbBB W wyniku innych założeń zastosowanych w modelu …

3
Różnica między MLE i Baum Welch na złączach HMM
W tym popularnym pytaniu , wysoko oceniona odpowiedź powoduje, że MLE i Baum Welch są osobni w dopasowaniu HMM. W przypadku problemu szkoleniowego możemy użyć następujących 3 algorytmów: MLE (szacowanie maksymalnego prawdopodobieństwa), szkolenie Viterbi (NIE mylić z dekodowaniem Viterbi), Baum Welch = algorytm przewijania do przodu ALE w Wikipedii , …

2
Pomoc w oczekiwaniu Maksymalizacja z papieru: jak uwzględnić wcześniejszą dystrybucję?
Pytanie oparte jest na pracy zatytułowanej: Rekonstrukcja obrazu w rozproszonej tomografii optycznej z wykorzystaniem sprzężonego radiacyjnego modelu transportowo-dyfuzyjnego Link do pobrania Autorzy stosują algorytm EM z rzadkości nieznanego wektora celu oszacowania pikseli obrazu. Model podajel1l1l_1μμ\mu y=Aμ+e(1)(1)y=Aμ+ey=A\mu + e \tag{1} Oszacowanie podano w równaniu (8) as μ^=argmaxlnp(y|μ)+γlnp(μ)(2)(2)μ^=arg⁡maxln⁡p(y|μ)+γln⁡p(μ)\hat{\mu} = \arg max {\ln …

1
Ograniczenia MCMC / EM? MCMC zamiast EM?
Obecnie uczę się hierarchicznych modeli bayesowskich przy użyciu JAGS z R, a także pymc przy użyciu Pythona ( „Bayesian Methods for Hackers” ). Mogę uzyskać intuicję z tego postu : „skończysz ze stosem liczb, które wyglądają” tak, jakby „udało ci się w jakiś sposób pobrać niezależne próbki ze skomplikowanej dystrybucji, …


1
Konwergencja z algorytmu EM z dwuwymiarowym rozkładem mieszanin
Mam model mieszanki, w którym chcę znaleźć estymator maksymalnego prawdopodobieństwa dla danego zestawu danych i zestawu częściowo zaobserwowanych danych . I realizowane zarówno E etapie (obliczenie oczekiwania dane i aktualnych parametrów ), i M-etapie, w celu zminimalizowania negatywnych log-Likelihood względu na spodziewany .xxxzzzzzzxxxθkθk\theta^kzzz Jak rozumiem, maksymalne prawdopodobieństwo wzrasta z każdą …

1
Dlaczego algorytm EM musi być iteracyjny?
Załóżmy, że masz populację NNN jednostki, każda z losową zmienną Xi∼Poisson(λ)Xi∼Poisson(λ)X_i \sim \text{Poisson}(\lambda). Ty obserwujeszn=N−n0n=N−n0n = N-n_0wartości dla dowolnej jednostki, dla której . Chcemy oszacowania .Xi>0Xi>0X_i > 0λλ\lambda Istnieją metody chwil i warunkowe maksymalne prawdopodobieństwo uzyskania odpowiedzi, ale chciałem wypróbować algorytm EM. Otrzymuję algorytm EM: gdzie indeks dolny wskazuje wartość …

Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.