Przepraszam, że jestem niejasny na moim blogu !
Uwaga: Podałem trochę podstaw na temat wyboru modelu Bayesa i paradoksu Jeffreysa-Lindleya w tej drugiej odpowiedzi z potwierdzeniem Cross.
Paradoks Jeffreysa-Lindleya jest związany z wyborem modelu Bayesa, ponieważ prawdopodobieństwo krańcowe
staje się bez znaczenia, gdy jest miarą skończoną (tj. miarą o nieskończonej masie), a nie miarą prawdopodobieństwa. Powodem tej trudności jest to, że nieskończona masa sprawia, że i nierozróżnialne dla żadnej dodatniej stałej . W szczególności nie można stosować współczynnika Bayesa i nie należy go stosować, gdy jeden model jest wcześniej wyposażony w „płaski”.
m(x)=∫π(θ)f(x|θ)dθ
πσπcπc
Oryginalny paradoks Jeffreysa-Lindleya wykorzystuje jako przykład rozkład normalny. Porównując modele i współczynnik Bayesa wynosi
Jest dobrze zdefiniowane, gdy jest właściwym przeorem, ale jeśli weźmiesz normalny przeor on i pozwólmy przejść do nieskończoności, mianownik przechodzi do zera dla dowolnej wartości różnej od zera i dowolnej wartości . (Chyba że i
x∼N(0,1)
x∼N(θ,1)
B12=exp{−n(x¯n)2/2}∫+∞−∞exp{−n(x¯n−θ)2/2}π(θ)dθ
πN(0,τ2)θτx¯nnτnsą powiązane, ale to się komplikuje!) Jeśli zamiast tego użyjesz bezpośrednio gdzie jest koniecznie stałą, współczynnik Bayesa będzie
stąd bezpośrednio zależy od .
π(θ)=c
cB12B12=exp{−n(x¯n)2/2}c∫+∞−∞exp{−n(x¯n−θ)2/2}dθ=exp{−n(x¯n)2/2}c2π/n−−−−√
c
Teraz, jeśli wasze przeory mają charakter informacyjny (a zatem i właściwy), nie ma powodu do wystąpienia paradoksu Jeffreysa-Lindleya. Przy wystarczającej liczbie obserwacji czynnik Bayesa konsekwentnie wybiera model, który wygenerował dane. (Lub ściślej model w kolekcji modeli rozważanych do wyboru modelu, który jest najbliższy „prawdziwemu” modelowi, który wygenerował dane.)