Chodzi o to, że czasami różne modele (dla tych samych danych) mogą prowadzić do funkcji prawdopodobieństwa, które różnią się stałą multiplikatywną, ale treść informacji musi być wyraźnie taka sama. Przykład:
Modelujemy niezależnych eksperymentów Bernoulliego, prowadzących do danych , każdy z rozkładem Bernoulliego z parametrem (prawdopodobieństwa) . Prowadzi to do funkcji prawdopodobieństwa
Lub możemy podsumować dane przez zmienną dwumianową , który ma rozkład dwumianowy, co prowadzi do funkcji prawdopodobieństwa
która jako funkcja nieznanego parametru jest proporcjonalna do poprzedniej funkcji prawdopodobieństwa . Dwie funkcje wiarygodności wyraźnie zawierają te same informacje i powinny prowadzić do tych samych wniosków!nX1,…,Xnp∏i=1npxi(1−p)1−xi
Y=X1+X2+⋯+Xn(ny)py(1−p)n−y
p
I rzeczywiście, z definicji są one uważane za tę samą funkcję prawdopodobieństwa.
Kolejny punkt widzenia: zauważ, że gdy w rachunku Bayesa używane są funkcje prawdopodobieństwa, co jest potrzebne do analizy bayesowskiej, takie multiplikatywne stałe po prostu kasują! więc są one wyraźnie nieistotne dla wnioskowania bayesowskiego. Podobnie, anuluje się przy obliczaniu ilorazów wiarygodności, stosowanych w optymalnych testach hipotez (lemat Neymana-Pearsona). I nie będzie miało wpływu na wartość estymatorów maksymalnego prawdopodobieństwa. Widzimy więc, że w wielu wnioskach częstych nie może odgrywać żadnej roli.
Możemy się kłócić z jeszcze innego punktu widzenia. Funkcja prawdopodobieństwa Bernoulliego (dalej używamy terminu „gęstość”) powyżej jest tak naprawdę gęstością w odniesieniu do miary zliczania, to jest miary liczb całkowitych nieujemnych o masie jeden dla każdej liczby całkowitej nieujemnej. Ale moglibyśmy zdefiniować gęstość w odniesieniu do innej dominującej miary. W tym przykładzie będzie to wydawać się (i jest) sztuczne, ale w większych przestrzeniach (przestrzeniach funkcyjnych) jest to naprawdę fundament! Dla celów ilustracji użyjmy określonego rozkładu geometrycznego, zapisanego , z , , i wkrótce. Następnie gęstość rozkładu Bernoulliego w odniesieniu doλλ(0)=1/2λ(1)=1/4λ(2)=1/8λf λ ( x ) = s x ( 1 - p ) 1 - x ⋅ 2 x + 1 P ( X = x ) = f λ ( x ) ⋅ λjest podane przez
co oznacza, że
Z tą nową, dominującą miarą funkcja prawdopodobieństwa staje się (z notacją z góry)
zwróć uwagę na dodatkowy czynnik . Tak więc przy zmianie miary dominującej stosowanej w definicji funkcji prawdopodobieństwa powstaje nowa stała multiplikatywna, która nie zależy od nieznanego parametrufλ(x)=px(1−p)1−x⋅2x+1
P(X=x)=fλ(x)⋅λ(x)
∏i = 1npxja( 1 - p )1 - xja2)xja+ 1= py( 1 - p )n - y2)y+ n
2)y+ npi jest wyraźnie nieistotny. To kolejny sposób na sprawdzenie, jak stałe multiplikatywne muszą być nieistotne. Argument ten można uogólnić za pomocą pochodnych Radon-Nikodym (jako argument powyżej jest przykładem.)