Forma zamknięta nie istnieje dla T, ale bardzo intuicyjne i stabilne podejście odbywa się za pomocą algorytmu EM. Ponieważ student jest mieszanką normalnych w skali, możesz napisać swój model jako
yja= μ + eja
gdzie oraz w i ∼ G a ( νmija| σ, wja∼ N.( 0 , σ2)w- 1ja). Oznacza to, że warunkowo nawimle są tylko ważone średnie i odchylenie standardowe. To jest krok „M”wja∼ G a ( ν2), ν2))wja
Ď 2=ΣIWI(Yi - μ )2
μ^= ∑jawjayja∑jawja
σ^2)= ∑jawja( yja- μ^)2)n
Teraz „E” zastępuje krok z jego oczekiwaniem podane wszystkie dane. Jest to podane jako:wja
w^ja= ( ν+ 1 ) σ2)νσ2)+ ( yja- μ )2)
więc wystarczy powtórzyć powyższe dwa kroki, zastępując „prawą stronę” każdego równania bieżącymi oszacowaniami parametrów.
μσ2)σ2)( ν+ 1 ) σ2)o l dνν
Należy zauważyć, że funkcja prawdopodobieństwa dziennika może mieć więcej niż jeden punkt stacjonarny, więc algorytm EM może zbiegać się w tryb lokalny zamiast trybu globalnego. Tryby lokalne można znaleźć, gdy parametr lokalizacji zostanie uruchomiony zbyt blisko wartości odstającej. Zatem rozpoczęcie od mediany jest dobrym sposobem na uniknięcie tego.