Sam zmagam się teraz z tym pytaniem. Oto wynik, który może być pomocny. Rozważ model liniowy
y=Xβ+ϵ,ϵ∼N(0,σ2)
gdzie oraz i są parametrami będącymi przedmiotem zainteresowania. Wspólne prawdopodobieństwo toy∈Rn,β∈Rp,βσ2
L(β,σ2)=(2πσ2)−n/2exp(−||y−Xβ||22σ2)
Optymalizacja wspólnego prawdopodobieństwa daje plony
β^=X+y
σ^2=1n||r||2
gdzie jest pseudoinwersją a jest dopasowanym wektorem resztkowym. Zauważ, że w mamy zamiast znanego stosunku skorygowanego o stopień swobody . O tym estymatorze wiadomo, że jest stronniczy w przypadku próbki skończonej.X+Xr=y−Xβ^σ^21/n1/(n−p)
Załóżmy teraz, że zamiast optymalizować zarówno i , integrujemy out i szacujemy na podstawie wynikowego zintegrowanego prawdopodobieństwa:βσ2βσ2
σ^2=maxσ2∫RpL(β,σ2)dβ
Używając elementarnej algebry liniowej i wzoru na całkę Gaussa, możesz to pokazać
σ^2=1n−p||r||2
Ma to korektę stopni swobody, co czyni ją bezstronną i ogólnie preferowaną w stosunku do wspólnego oszacowania ML.
Na podstawie tego wyniku można zapytać, czy istnieje coś z natury korzystnego w zintegrowanym prawdopodobieństwie, ale nie znam żadnych ogólnych wyników, które mogłyby odpowiedzieć na to pytanie. Wydaje się, że konsensus jest taki, że zintegrowane ML lepiej radzi sobie z niepewnością w większości problemów z szacunkami. W szczególności, jeśli szacujesz wielkość, która zależy od innych oszacowań parametrów (nawet pośrednio), wówczas integracja z innymi parametrami lepiej uwzględni ich niepewności.