Aby rozwinąć mój komentarz - to zależy. Jeśli tylko próbujesz zrozumieć podstawy, znalezienie ekstrema funkcji daje ci uczciwy sposób (chociaż w wielu praktycznych przypadkach MLE prawdopodobieństwo jest zmaksymalizowane numerycznie, w takim przypadku potrzebujesz innych umiejętności, a także niektórych rachunek różniczkowy).
Odłożę na bok ładne, proste przypadki, w których otrzymujesz wyraźne rozwiązania algebraiczne. Mimo to rachunek różniczkowy jest często bardzo przydatny.
Przez cały czas będę zakładać niezależność. Weźmy najprostszy możliwy przypadek optymalizacji 1-parametrowej. Najpierw przyjrzymy się przypadkowi, w którym możemy wziąć pochodne i wyodrębnić funkcję parametru i statystyki.
Rozważ gęstośćGamma(α,1)
fX(x;α)=1Γ(α)xα−1exp(−x);x>0;α>0
Zatem dla próbki o rozmiarze prawdopodobieństwo jest następującen
L(α;x)=∏i=1nfX(xi;α)
więc prawdopodobieństwo dziennika to
gdzie . Biorąc pochodne,l(α;x)=∑i=1nlnfX(xi;α)=∑i=1nln(1Γ(α)xα−1iexp(−xi))
=∑i=1n−lnΓ(α)+(α−1)lnxi−xi
=−nlnΓ(α)+(α−1)Sx−nx¯
Sx=∑ni=1lnxi
ddαl(α;x)=ddα(−nlnΓ(α)+(α−1)Sx−nx¯)
=−nΓ′(α)Γ(α)+Sx
=−nψ(α)+Sx
Więc jeśli ustawimy to na zero i spróbujemy rozwiązać dla , możemy uzyskać:
α^ψ(α^)=lnG(x)
gdzie to funkcja digamma, a to średnia geometryczna . Nie możemy zapominać, że generalnie nie można po prostu ustawić pochodnej na zero i być pewnym, że zlokalizujesz argmax ; nadal musisz w jakiś sposób pokazać, że rozwiązanie jest maksymalne (w tym przypadku jest). Mówiąc bardziej ogólnie, możesz uzyskać minima lub poziome punkty przegięcia, a nawet jeśli masz lokalne maksimum, możesz nie mieć globalnego maksimum (którego dotykam pod koniec).ψ(⋅)G(⋅)
Naszym zadaniem jest teraz znalezienie wartości dla którejα^
ψ(α^)=g
gdzie .g=lnG(x)
To nie ma rozwiązania w zakresie funkcji elementarnych, musi być obliczone numerycznie; przynajmniej byliśmy w stanie uzyskać funkcję parametru z jednej strony i funkcję danych z drugiej. Istnieją różne algorytmy szukania zera, które można zastosować, jeśli nie masz wyraźnego sposobu rozwiązania równania (nawet jeśli nie masz pochodnych, na przykład istnieje sekcja binarna).
Często nie jest to takie miłe. Rozważ gęstość logistyczną ze skalą jednostkową:
Ani argumentu prawdopodobieństwa, ani funkcji logarytmu wiarygodności nie można łatwo uzyskać algebraicznie - musisz użyć numerycznych metod optymalizacji. W takim przypadku funkcja jest dość dobrze zachowana, a metoda Newtona-Raphsona powinna zwykle wystarczyć do zlokalizowania oszacowania ML . Jeśli pochodna była niedostępna lub Newton-Raphson się nie zbiegał, mogą być potrzebne inne numeryczne metody optymalizacji, takie jak złoty odcinek (nie jest to przegląd najlepszych dostępnych metod, wystarczy wspomnieć o niektórych metodach, które są bardziej prawdopodobnie spotka się na poziomie podstawowym).f(x;μ)=14sech2(x−μ2).
μμ
Mówiąc bardziej ogólnie, możesz nawet nie być w stanie zrobić tyle. Rozważmy Cauchy'ego z medianą i skalą jednostkową:θ
fX(x;θ)=1π(1+(x−θ)2).
Zasadniczo prawdopodobieństwo tutaj nie ma unikalnego lokalnego maksimum, ale kilka lokalnych maksimów. Jeśli okaże się to lokalne maksimum, nie może być inny, większy gdzie indziej. (Czasami ludzie koncentrują się na określeniu lokalnego maksimum najbliższego medianie lub czegoś takiego.)
Początkującym łatwo jest założyć, że jeśli znajdą wklęsły punkt zwrotny, że mają argmax funkcji, ale oprócz wielu trybów (już omówionych) mogą istnieć maksima, które w ogóle nie są związane z punktami zwrotnymi. Przyjmowanie instrumentów pochodnych i ustawianie ich na zero nie jest wystarczające; rozważ na przykład oszacowanie parametru dla munduru na .(0,θ)
W innych przypadkach przestrzeń parametrów może być dyskretna.
Czasami znalezienie maksimum może być dość skomplikowane.
A to tylko próbka problemów z jednym parametrem. Gdy masz wiele parametrów, sprawy znów się angażują.