Odpowiadam „odpowiedź” na pytanie, które zadałem dwa tygodnie temu: Dlaczego wcześniejsza Jeffreys była przydatna? To było naprawdę pytanie (i nie miałem wtedy prawa do komentowania), więc mam nadzieję, że to będzie w porządku:
W powyższym linku omówiono, że interesującą cechą wcześniejszego Jeffreysa jest to, że podczas ponownej parametryzacji modelu wynikowy rozkład tylny daje prawdopodobieństwa tylne, które spełniają ograniczenia nałożone przez transformację. Na przykład, jak opisano tam podczas przechodzenia z sukcesem prawdopodobieństwa na przykład beta-Bernoulliego do kursów , to powinno być tak, że tylnego spełnia .
Chciałem stworzyć numeryczny przykład niezmienności Jeffreysa przed przekształceniem na szanse i, co bardziej interesujące, brak innych przeorów (np. Haldane, mundurowych lub arbitralnych).
Teraz, jeśli późniejszym prawdopodobieństwem sukcesu jest Beta (dla dowolnej wcześniejszej wersji Beta, nie tylko Jeffreysa), późniejsze szanse są zgodne z rozkładem Beta drugiego rodzaju (patrz Wikipedia) o tych samych parametrach . Następnie, jak podkreślono w poniższym przykładzie liczbowym, nie jest zbyt zaskakujące (przynajmniej dla mnie), że istnieje jakakolwiek niezmienność dla dowolnego wyboru wersji Beta przedtem (baw się z alpha0_U
ibeta0_U
), nie tylko Jeffreys, por. wyjście programu.
library(GB2)
# has the Beta density of the 2nd kind, the distribution of theta/(1-theta) if theta~Beta(alpha,beta)
theta_1 = 2/3 # a numerical example as in the above post
theta_2 = 1/3
odds_1 = theta_1/(1-theta_1) # the corresponding odds
odds_2 = theta_2/(1-theta_2)
n = 10 # some data
k = 4
alpha0_J = 1/2 # Jeffreys prior for the Beta-Bernoulli case
beta0_J = 1/2
alpha1_J = alpha0_J + k # the corresponding parameters of the posterior
beta1_J = beta0_J + n - k
alpha0_U = 0 # some other prior
beta0_U = 0
alpha1_U = alpha0_U + k # resulting posterior parameters for the other prior
beta1_U = beta0_U + n - k
# posterior probability that theta is between theta_1 and theta_2:
pbeta(theta_1,alpha1_J,beta1_J) - pbeta(theta_2,alpha1_J,beta1_J)
# the same for the corresponding odds, based on the beta distribution of the second kind
pgb2(odds_1, 1, 1,alpha1_J,beta1_J) - pgb2(odds_2, 1, 1,alpha1_J,beta1_J)
# same for the other prior and resulting posterior
pbeta(theta_1,alpha1_U,beta1_U) - pbeta(theta_2,alpha1_U,beta1_U)
pgb2(odds_1, 1, 1,alpha1_U,beta1_U) - pgb2(odds_2, 1, 1,alpha1_U,beta1_U)
To prowadzi mnie do następujących pytań:
- Czy popełniam błąd?
- Jeśli nie, to czy istnieje taki efekt, jak brak braku niezmienności w rodzinach małżeńskich, czy coś takiego? (Szybka kontrola prowadzi mnie do podejrzenia, że na przykład nie mógłbym również wykazać braku niezmienniczości w normalnym i normalnym przypadku).
- Znasz (najlepiej prosty) przykład, w którym możemy zrobić dostać brak niezmienności?