Sama bezstronność niekoniecznie jest szczególnie ważna.
Poza bardzo ograniczonym zestawem okoliczności, najbardziej przydatne estymatory są stronnicze, jednak są uzyskiwane.
Jeśli dwa estymatory mają tę samą wariancję, można z łatwością postawić argument za preferowaniem obiektywnego bez uprzedzenia, ale jest to niezwykła sytuacja (to znaczy, można rozsądnie preferować bezstronność, ceteris paribus - ale te nieznośne ceteris prawie nigdy nie są paribusem ).
Częściej, jeśli chcesz obiektywności, dodasz pewną wariancję, aby ją zdobyć, a wtedy pytanie brzmi: dlaczego to zrobiłbyś ?
Odchylenie jest tym, jak daleko oczekiwana wartość mojego estymatora będzie średnio zbyt wysoka (z ujemnym odchyleniem wskazującym zbyt niskie).
Kiedy zastanawiam się nad estymatorem małej próbki, tak naprawdę nie obchodzi mnie to. Zwykle bardziej interesuje mnie, jak bardzo błędny będzie mój estymator w tym przypadku - moja typowa odległość od prawej ... coś w rodzaju błędu średniej kwadratowej lub średniego błędu bezwzględnego miałoby większy sens.
Więc jeśli lubisz niską wariancję i niską stronniczość, poproś o powiedzenie a sensowne byłoby oszacowanie błędu minimalnego średniego kwadratu ; są to bardzo rzadko obiektywne.
Odchylenie i bezstronność jest użytecznym pojęciem, o którym należy pamiętać, ale nie jest to szczególnie przydatna właściwość do poszukiwania, chyba że porównujesz tylko estymatory z tą samą wariancją.
Estymatory ML mają tendencję do niskiej zmienności; zazwyczaj nie są one minimalne MSE, ale często mają niższe MSE niż modyfikowanie ich, aby były bezstronne (jeśli w ogóle możesz to zrobić).
Jako przykład, rozważmy oszacowania wariancji przy pobieraniu próbek z rozkładu normalnego σ 2 MMSE = S 2 (rzeczywiście MMSE dla wariancji ma zawsze większy mianownik niżn-1).σ^2MMSE=S2n+1,σ^2MLE=S2n,σ^2Unb=S2n−1n−1