Zdecydowanie nie, chociaż często są używane zamiennie. Niejasny uprzedni (względnie niedoinformowany, niezbyt faworyzujący niektóre wartości w stosunku do innych) parametru może faktycznie wywołać bardzo informacyjny uprzedni w przypadku innej transformacji . Jest to przynajmniej część motywacji przeora Jeffreysa, który początkowo został skonstruowany tak, aby był jak najmniej informacyjny.θf(θ)
Niejasne priory mogą również zrobić kilka nieszczęsnych rzeczy dla twojego modelu. Klasycznym teraz przykładem jest użycie jako priors na komponentach wariancji w modelu hierarchicznym.InverseGamma(ϵ,ϵ)ϵ→0
Nieprawidłowe ograniczenie wstępne daje w tym przypadku niewłaściwe tylne. Popularną alternatywą było wzięcie jako bardzo małego, co powoduje, że wcześniejszy wygląd wygląda prawie jednolicie na . Ale skutkuje to również tym, że a posterior jest prawie niewłaściwy, i doszło do dopasowania modelu i wnioskowania. Zobacz Wcześniejsze rozkłady Gelmana dla parametrów wariancji w modelach hierarchicznych, aby uzyskać pełną ekspozycję.ϵR+
Edycja: @csgillespie (słusznie!) Wskazuje, że nie odpowiedziałem całkowicie na twoje pytanie. Moim zdaniem nieinformacyjny przeor to taki, który jest niejasny w tym sensie, że nie faworyzuje szczególnie jednego obszaru przestrzeni parametrów nad innym, ale czyniąc to, nie powinien wywoływać pouczających priorów na temat innych parametrów. Tak więc nieinformacyjny przeor jest niejasny, ale niejasny przeor niekoniecznie nie jest informacyjny. Jednym z przykładów, w których ma to miejsce, jest wybór zmiennych bayesowskich; „niejasny” wcześniejszy stopień prawdopodobieństwa włączenia zmiennych może faktycznie wywołać całkiem pouczający uprzedni o całkowitej liczbie zmiennych zawartych w modelu!
Wydaje mi się, że poszukiwanie prawdziwie nieinformacyjnych priorów jest doniosłe (choć wielu by się nie zgodziło); lepiej używać tak zwanych „słabo” informacyjnych priorów (które, jak sądzę, są w pewnym sensie niejasne). Naprawdę, jak często wiemy nic o parametrze w pytaniu?