estymator ML daje wartość parametru, który najprawdopodobniej wystąpi w zbiorze danych.
Biorąc pod uwagę założenia, estymator ML jest wartością parametru, który ma największą szansę na wygenerowanie zestawu danych.
Nie mogę intuicyjnie zrozumieć stronniczego estymatora ML w tym sensie, że „w jaki sposób najbardziej prawdopodobna wartość parametru może przewidzieć rzeczywistą wartość parametru z odchyleniem w kierunku niewłaściwej wartości?”
Odchylenie dotyczy oczekiwań dotyczących rozkładu próbkowania. „Najprawdopodobniej wygeneruje dane” nie dotyczy oczekiwań rozkładów próbkowania. Dlaczego mieliby iść razem?
Na jakiej podstawie jest zaskakujące, że niekoniecznie odpowiadają?
Sugeruję rozważenie kilku prostych przypadków MLE i zastanowienie się, jak powstaje różnica w tych konkretnych przypadkach.
Jako przykład rozważ obserwacje munduru na . Największa obserwacja nie jest (koniecznie) większa niż parametr, więc parametr może przyjmować wartości co najmniej tak duże, jak największa obserwacja.(0,θ)
Kiedy weźmiesz pod uwagę prawdopodobieństwo , jest ono (oczywiście) większe, im bliżejnajwiększej obserwacji jest θ . Jest więc maksymalizowanyprzynajwiększej obserwacji; to wyraźnie szacunek dla θ, który maksymalizuje szansę na uzyskanie próbki, którą otrzymałeś:θθθ
Ale z drugiej strony musi to być stronnicze, ponieważ największa obserwacja jest oczywiście (z prawdopodobieństwem 1) mniejsza niż prawdziwa wartość ; wszelkie inne szacunki θθθ nie zostały jeszcze wykluczone przez samą próbkę, muszą być od niej większe i muszą (w tym przypadku całkiem wyraźnie) być mniej prawdopodobne, że wytworzą próbkę.
Oczekiwanie największej obserwacji z wynosi nU(0,θ) , więc zwykłym sposobem na rozpakowanie jest przyjęcie estymatoraθ:nn+1θ , gdzie X ( n ) jest największą obserwacją.θ^=n+1nX(n)X(n)
To leży na prawo od MLE, a więc ma mniejsze prawdopodobieństwo.