Rozumiem, że przeor Jeffreys jest niezmienny podczas ponownej parametryzacji. Jednak nie rozumiem, dlaczego ta właściwość jest pożądana.
Dlaczego nie miałbyś chcieć zmiany przed zmianą przy zmianie zmiennych?
Rozumiem, że przeor Jeffreys jest niezmienny podczas ponownej parametryzacji. Jednak nie rozumiem, dlaczego ta właściwość jest pożądana.
Dlaczego nie miałbyś chcieć zmiany przed zmianą przy zmianie zmiennych?
Odpowiedzi:
Pozwól mi wypełnić odpowiedź Zen. Nie podoba mi się pojęcie „reprezentowania ignorancji”. Ważną rzeczą jest Jeffreys przed ale Jeffreys posterior . Ten posterior ma na celu jak najlepsze odzwierciedlenie informacji o parametrach wniesionych przez dane. Właściwość niezmienniczości jest oczywiście wymagana dla dwóch następujących punktów. Rozważmy na przykład model dwumianowy z nieznanym parametrem proporcji i parametrem odds .ψ = θ
Jeffreys posterior on najlepiej odzwierciedla informacje o przyniesione przez dane. Istnieje zgodność jeden na jeden między a . Następnie przekształcenie Jeffreysa tylnego na w tylne na (za pomocą zwykłej formuły zmiany zmiennych) powinno dać rozkład najlepiej odzwierciedlający informacje o . Zatem ten rozkład powinien być późniejszy od Jeffreysa o . Jest to właściwość niezmienniczości.θ θ ψ θ ψ ψ ψ
Ważnym punktem podczas wyciągania wniosków z analizy statystycznej jest komunikacja naukowa . Wyobraź sobie, że oddajesz Jeffreysa w późniejszym do kolegi naukowego. Ale on / ona interesuje się raczej niż . Zatem nie jest to problem z właściwością niezmienniczości: on / ona musi po prostu zastosować formułę zmiany zmiennych.ψ θ
Załóżmy, że ty i przyjaciel analizujecie ten sam zestaw danych przy użyciu normalnego modelu. Przyjmujesz zwykłą parametryzację normalnego modelu, używając średniej i wariancji jako parametrów, ale twój przyjaciel woli sparametryzować normalny model ze współczynnikiem zmienności i precyzją jako parametrami (co jest całkowicie „legalne”). Jeśli oboje użyjecie priory Jeffreysa, wasza tylna dystrybucja będzie tylną dystrybucją twojego przyjaciela, odpowiednio przekształconą z jego parametryzacji na twoją. W tym sensie przeor Jeffreysa jest „niezmienny”
(Nawiasem mówiąc, „niezmiennik” jest okropnym słowem; to, co naprawdę rozumiemy, to to, że jest „kowariantem” w tym samym sensie rachunku tensorowego / geometrii różnicowej, ale oczywiście ten termin ma już dobrze ustalone znaczenie probabilistyczne, więc nie możemy tego użyć).
Dlaczego ta właściwość spójności jest pożądana? Ponieważ, jeśli przeor Jeffreysa ma jakąkolwiek szansę na reprezentowanie ignorancji na temat wartości parametrów w sensie absolutnym (w rzeczywistości tak nie jest, ale z innych powodów niezwiązanych z „niezmiennością”), a nie ignorancji względem określonej parametryzacji modelu, musi być tak, że bez względu na to, od których parametryzacji arbitralnie zdecydujemy się zacząć, nasi potomni powinni „dopasować się” po transformacji.
Sam Jeffreys rutynowo naruszał tę właściwość „niezmienniczości”, konstruując swoje przeory.
Ten artykuł zawiera kilka interesujących dyskusji na ten temat i pokrewne tematy.
Aby dodać kilka cytatów do doskonałej odpowiedzi Zen: Według Jaynesa przeor Jeffreys jest przykładem zasady grup transformacji, która wynika z zasady obojętności:
moglibyśmy następnie wygenerować nowy problem, w którym nasz stan wiedzy jest taki sam, ale w którym przypisujemy różne prawdopodobieństwa…
Teraz, aby odpowiedzieć na twoje pytanie: „Dlaczego nie chcesz, aby przed zmianą wprowadzono zmiany w zmiennej?”
Według Jaynesa parametryzacja jest innym rodzajem arbitralnej etykiety i nie należy być w stanie „zwykłą wymianą etykiet wygenerować nowy problem, w którym nasz stan wiedzy jest taki sam, ale w którym przypisujemy różne prawdopodobieństwa. ”
Jeffreys Prior jest bezużyteczny . To dlatego, że:
Po prostu tego nie używaj.