(Ta odpowiedź używa drugiego podanego linku).
Przywołaj definicję prawdopodobieństwa:
gdzie w naszym przypadku są estymatorami prawdopodobieństwa, że monety odpowiednio A i B wylądują, jest naszych eksperymentów, każdy składający się z 10 rzutów, a
jest monetą używaną w każdym eksperymencie.
L[θ|X]=Pr[X|θ]=∑ZPr[X,Z|θ]
θ=(θA,θB)X=(X1,…,X5)XiZ=(Z1,…,Z5)
Chcemy znaleźć estymator największego prawdopodobieństwa . Algorytm Expectation-Maximization (EM) jest jedną z takich metod znalezienia (przynajmniej lokalnego) . Działa poprzez znalezienie warunkowego oczekiwania, które jest następnie wykorzystywane do maksymalizacji . Chodzi o to, że stale znajdując bardziej prawdopodobne (tj. Bardziej prawdopodobne)
w każdej iteracji, będziemy stale zwiększać co z kolei zwiększa funkcję prawdopodobieństwa. Istnieją trzy rzeczy, które należy zrobić, zanim przystąpisz do projektowania algorytmu opartego na EM.θ^θ^θθPr[X,Z|θ]
- Skonstruuj model
- Oblicz oczekiwanie warunkowe w ramach modelu (E-Step)
- Zmaksymalizuj nasze prawdopodobieństwo, aktualizując nasze aktualne oszacowanie (M-Step)θ
Zbuduj model
Zanim przejdziemy dalej z EM, musimy dowiedzieć się, co dokładnie obliczamy. W kroku E obliczamy dokładnie oczekiwaną wartość dla . Jaka jest więc ta wartość? Zauważ, że
Powodem jest to, że mamy na koncie 5 eksperymentów i nie wiemy, jaką monetę użyto w każdym z nich. Nierówność wynika zlogPr[X,Z|θ]
logPr[X,Z|θ]=∑i=15log∑C∈{A,B}Pr[Xi,Zi=C|θ]=∑i=15log∑C∈{A,B}Pr[Zi=C|Xi,θ]⋅Pr[Xi,Zi=C|θ]Pr[Zi=C|Xi,θ]≥∑i=15∑C∈{A,B}Pr[Zi=C|Xi,θ]⋅logPr[Xi,Zi=C|θ]Pr[Zi=C|Xi,θ].
logbycie wklęsłym i stosowanie nierówności Jensena. Powodem, dla którego potrzebujemy tej dolnej granicy, jest to, że nie możemy bezpośrednio obliczyć argmax do pierwotnego równania. Możemy to jednak obliczyć dla końcowej dolnej granicy.
Co to jest ? Jest prawdopodobieństwo, że zobaczymy monetę biorąc pod uwagę eksperyment i . Korzystając z prawdopodobieństw warunkowych, mamyPr[Zi=C|Xi,θ]CXiθ
Pr[Zi=C|Xi,θ]=Pr[Xi,Zi=C|θ]Pr[Xi|θ].
Chociaż poczyniliśmy pewne postępy, jeszcze nie skończyliśmy z modelem. Jakie jest prawdopodobieństwo, że dana moneta przerzuci sekwencję ? Pozwalając
Teraz jest wyraźnie tylko prawdopodobieństwo pod obiema możliwościami lub . Ponieważ mamy,
Xihi=#heads in Xi
Pr[Xi,Zi=C|θ]=12⋅θhiC(1−θC)10−hi, for C∈{A,B}.
Pr[Xi|θ]Zi=AZi=BPr[Zi=A]=Pr[Zi=B]=1/2Pr[Xi|θ]=1/2⋅(Pr[Xi|Zi=A,θ]+Pr[Xi|Zi=B,θ]).
E-Step
Okej ... to nie było takie fajne, ale teraz możemy zacząć pracę nad EM. Algorytm EM zaczyna się od losowego odgadnięcia dla . W tym przykładzie mamy . Obliczamy
Ta wartość jest zgodna z zawartością papieru. Teraz możemy obliczyć oczekiwaną liczbę głów w z monety ,
Robiąc to samo dla monety otrzymujemy,
θθ0=(0.6,0.5)
Pr[Z1=A|X1,θ]=1/2⋅(0.65⋅0.45)1/2⋅((0.65⋅0.45)+(0.55⋅0.55))≈0.45.
X1=(H,T,T,T,H,H,T,H,T,H)AE[#heads by coin A|X1,θ]=h1⋅Pr[Z1=A|X1,θ]=5⋅0.45≈2.2.
BE[#heads by coin B|X1,θ]=h1⋅Pr[Z1=B|X1,θ]=5⋅0.55≈2.8.
Możemy to samo obliczyć dla liczby ogonów, podstawiając na . Dotyczy to wszystkich innych wartości i . Dzięki liniowości oczekiwań możemy dowiedzieć się
h110−h1Xihi 1≤i≤5E[#heads by coin A|X,θ]=∑i=15E[#heads by coin A|Xi,θ]
M-Step
Z naszymi oczekiwanymi wartościami nadchodzi teraz krok M, w którym chcemy zmaksymalizować
biorąc pod uwagę nasze oczekiwane wartości. Odbywa się to poprzez zwykłą normalizację!
Podobnie jest w przypadku . Proces ten zaczyna się od E-Step i i trwa do momentu, aż wartości dla zbiegną się (lub osiągną dopuszczalny próg). W tym przykładzie mamy 10 iteracji i . W każdej iteracji wartość
rośnie, ze względu na lepsze oszacowanieθ
θ1A=E[#heads over X by coin A|X,θ]E[#heads and tails over X by coin A|X,θ]=21.321.3+9.6≈0.71.
Bθ1θθ^=θ10=(0.8,0.52)Pr[X,Z|θ]θ .
Teraz w tym przypadku model był dość uproszczony. Sprawy mogą się znacznie skomplikować dość szybko, jednak algorytm EM zawsze będzie zbieżny i zawsze da maksymalne prawdopodobieństwo estymatora . Może to być lokalny estymator, ale aby obejść ten problem, możemy po prostu zrestartować proces EM z inną inicjalizacją. Możemy to zrobić stałą ilość razy i zachować najlepsze wyniki (tj. Te o najwyższym prawdopodobieństwie końcowym).θ^