Co w praktyce oznacza „prawdopodobieństwo zdefiniowane tylko do multiplikatywnej stałej proporcjonalności”?


19

Czytam artykuł, w którym autorzy prowadzą dyskusję o oszacowaniu maksymalnego prawdopodobieństwa do twierdzenia Bayesa, rzekomo jako wstęp dla początkujących.

Jako przykład prawdopodobieństwa zaczynają się od rozkładu dwumianowego:

p(x|n,θ)=(nx)θx(1θ)nx

a następnie zaloguj obie strony

(θ|x,n)=xln(θ)+(nx)ln(1θ)

z uzasadnieniem, że:

„Ponieważ prawdopodobieństwo jest zdefiniowane tylko do multiplikatywnej stałej proporcjonalności (lub stałej addytywnej dla logarytmu prawdopodobieństwa), możemy przeskalować ... przez obniżenie współczynnika dwumianowego i zapisanie logarytmu prawdopodobieństwa w miejsce prawdopodobieństwa”

Matematyka ma sens, ale nie rozumiem, co należy rozumieć przez „prawdopodobieństwo definiuje się tylko do multiplikatywnej stałej proporcjonalności” i jak pozwala to na obniżenie współczynnika dwumianowego i przejście od p(x|n,θ) do (θ|x,n) .

Podobna terminologia pojawiła się w innych pytaniach ( tu i tutaj ), ale nadal nie jest jasne, jakie praktycznie jest prawdopodobieństwo zdefiniowane lub doprowadzające informacje do multiplikatywnej stałej. Czy można to wyjaśnić w kategoriach laika?

Odpowiedzi:


18

Chodzi o to, że czasami różne modele (dla tych samych danych) mogą prowadzić do funkcji prawdopodobieństwa, które różnią się stałą multiplikatywną, ale treść informacji musi być wyraźnie taka sama. Przykład:

Modelujemy niezależnych eksperymentów Bernoulliego, prowadzących do danych , każdy z rozkładem Bernoulliego z parametrem (prawdopodobieństwa) . Prowadzi to do funkcji prawdopodobieństwa Lub możemy podsumować dane przez zmienną dwumianową , który ma rozkład dwumianowy, co prowadzi do funkcji prawdopodobieństwa która jako funkcja nieznanego parametru jest proporcjonalna do poprzedniej funkcji prawdopodobieństwa . Dwie funkcje wiarygodności wyraźnie zawierają te same informacje i powinny prowadzić do tych samych wniosków!nX1,,Xnp

i=1npxi(1p)1xi
Y=X1+X2++Xn
(ny)py(1p)ny
p

I rzeczywiście, z definicji są one uważane za tę samą funkcję prawdopodobieństwa.

Kolejny punkt widzenia: zauważ, że gdy w rachunku Bayesa używane są funkcje prawdopodobieństwa, co jest potrzebne do analizy bayesowskiej, takie multiplikatywne stałe po prostu kasują! więc są one wyraźnie nieistotne dla wnioskowania bayesowskiego. Podobnie, anuluje się przy obliczaniu ilorazów wiarygodności, stosowanych w optymalnych testach hipotez (lemat Neymana-Pearsona). I nie będzie miało wpływu na wartość estymatorów maksymalnego prawdopodobieństwa. Widzimy więc, że w wielu wnioskach częstych nie może odgrywać żadnej roli.

Możemy się kłócić z jeszcze innego punktu widzenia. Funkcja prawdopodobieństwa Bernoulliego (dalej używamy terminu „gęstość”) powyżej jest tak naprawdę gęstością w odniesieniu do miary zliczania, to jest miary liczb całkowitych nieujemnych o masie jeden dla każdej liczby całkowitej nieujemnej. Ale moglibyśmy zdefiniować gęstość w odniesieniu do innej dominującej miary. W tym przykładzie będzie to wydawać się (i jest) sztuczne, ale w większych przestrzeniach (przestrzeniach funkcyjnych) jest to naprawdę fundament! Dla celów ilustracji użyjmy określonego rozkładu geometrycznego, zapisanego , z , , i wkrótce. Następnie gęstość rozkładu Bernoulliego w odniesieniu doλλ(0)=1/2λ(1)=1/4λ(2)=1/8λf λ ( x ) = s x ( 1 - p ) 1 - x2 x + 1 P ( X = x ) = f λ ( x ) λjest podane przez co oznacza, że Z tą nową, dominującą miarą funkcja prawdopodobieństwa staje się (z notacją z góry) zwróć uwagę na dodatkowy czynnik . Tak więc przy zmianie miary dominującej stosowanej w definicji funkcji prawdopodobieństwa powstaje nowa stała multiplikatywna, która nie zależy od nieznanego parametru

fλ(x)=px(1p)1x2x+1
P(X=x)=fλ(x)λ(x)
i=1npxi(1p)1xi2xi+1=py(1p)ny2y+n
2y+npi jest wyraźnie nieistotny. To kolejny sposób na sprawdzenie, jak stałe multiplikatywne muszą być nieistotne. Argument ten można uogólnić za pomocą pochodnych Radon-Nikodym (jako argument powyżej jest przykładem.)


„treść informacji musi być oczywiście taka sama” Jest to prawdą tylko wtedy, gdy wierzysz w zasadę prawdopodobieństwa!
jsk

Tak, może, ale pokazałem, jak wynika to z zasad bayesowskich.
kjetil b halvorsen

@kjetilbhalvorsen Dziękujemy za przemyślaną odpowiedź! Nadal jestem zdezorientowany, dlaczego prawdopodobieństwo dystrybucji bernoulli nie uwzględnia współczynnika dwumianowego. Twoja odpowiedź wyjaśnia, dlaczego to nie ma znaczenia, ale nie rozumiem, dlaczego w ogóle pominięto prawdopodobieństwo.
jvans

@jvans: To dlatego, że dwumianowy współczynnik nie zależy od nieznanego parametru, więc nie może wpływać na kształt funkcji prawdopodobieństwa
kjetil b halvorsen

12

Zasadniczo oznacza to, że liczy się tylko względna wartość pliku PDF. Na przykład standardowy normalny (gaussowski) plik PDF to: , twoja książka mówi, że mogą użyć , ponieważ nie dbają o skalę, tj. .g(x)=e-x2/2c=1f(x)=12πex2/2g(x)=ex2/2c=12π

Dzieje się tak dlatego, że funkcja maksymalnego prawdopodobieństwa i i będą mieć ten sam maksymalny. Stąd maksimum będzie takie samo jak dla . Więc nie przejmują się skalą.g ( x ) e - x 2 / 2 F ( x )cg(x)g(x)ex2/2f(x)


6

Nie mogę wyjaśnić znaczenia cytatu, ale dla oszacowania maksymalnego prawdopodobieństwa nie ma znaczenia, czy zdecydujemy się znaleźć maksimum funkcji prawdopodobieństwa (traktowanej jako funkcja lub maksimum gdzie jest pewną stałą. Jest tak, ponieważ nie interesuje nas maksymalna wartość a raczej wartość gdzie występuje to maksimum, a zarówno i osiągają maksymalną wartość przy tym samym θ a L ( x ; θ ) a L ( x ; θ ) θ ML L ( x ; θ ) a L ( x ; θ ) θ ML g ( ) L ( x ; θ ) g ( L ( x ; θ ) ) θ ML a lnL(x;θ)θaL(x;θ)aL(x;θ)θMLL(x;θ)aL(x;θ)θML. Stałe multiplikatywne można więc zignorować. Podobnie, możemy wybrać dowolną funkcję monotoniczną (taką jak logarytm) funkcji wiarygodności , określić maksimum i wywnioskuj z tego wartość . Dla logarytmu stała multiplikatywna staje się stałą addytywną i to również można zignorować w procesie znajdowania położenia maksimum: jest zmaksymalizowane w tym samym punkcie co .g()L(x;θ)g(L(x;θ))θMLaln(a)ln(a)+ln(L(x;θ)ln(L(x;θ)

Przechodząc do maksymalnej oceny prawdopodobieństwa a posteriori (MAP), jest uważana za realizację zmiennej losowej z funkcją gęstości a priori , dane są uważane za realizację zmienna losowa , a funkcja prawdopodobieństwa jest uważana za wartość gęstości warunkowej z uwarunkowanej na ; wspomniana funkcja gęstości warunkowej jest oceniana w . TheθΘfΘ(θ)xXfXΘ(xΘ=θ)XΘ=θxgęstość a posteriori dla wynosi w którym rozpoznajemy licznik jako łączną gęstość danych i szacowanego parametru. Punkt gdzie osiąga maksymalną wartość, jest oszacowaniem MAP , i przy użyciu tych samych argumentów jak w akapicie widzimy, że możemy zignorować po prawej stronieΘ f

(1)fΘX(θx)=fXΘ(xΘ=θ)fΘ(θ)fX(x)
fX,Θ(x,θ)θMAPfΘX(θx)θ[fX(x)]1(1)jako stała multiplikatywna, tak jak możemy ignorować stałe multiplikatywne zarówno w iw . Podobnie, gdy wykorzystywane są prawdopodobieństwa dziennika, możemy zignorować stałe addytywne.fXΘ(xΘ=θ)fΘ(θ)

Taki sposób myślenia można również zrealizować za pomocą bayesa: jeśli wstawisz lub do twierdzenia Bayesa, nie ma to znaczenia, anuluje się, więc tył jest taki sam. LaLa
kjetil b halvorsen

5

Mówiąc ogólnie, często szukasz maksymalnego prawdopodobieństwa, a i dzielą te same punkty krytyczne.f(x)kf(x)


3
Podobnie i ale nie byłyby to równoważne funkcje wiarygodnościf ( x ) + 2f(x)f(x)+2
Henry

Proszę, jak pisze Alecos Papadopoulos w swojej odpowiedzi: „prawdopodobieństwo jest najpierw wspólną funkcją gęstości prawdopodobieństwa”. Ze względu na założenie iid dla próbek losowych, ta funkcja połączenia jest produktem prostych funkcji gęstości, więc powstają mnożniki, a nie sumy.
Sergio

1
Wspólna funkcja jest takim produktem wtedy i tylko wtedy, gdy dane są niezależne. Ale MLE obejmuje zmienne zależne, więc argument produktu wydaje się nieprzekonywający.
whuber

1

Sugerowałbym, aby nie pomijać żadnych stałych terminów w funkcji prawdopodobieństwa (tj. Terminów, które nie zawierają parametrów). W zwykłych okolicznościach nie wpływają one na prawdopodobieństwa, jak już wspomniano. Ale: argmax

Mogą zaistnieć niezwykłe okoliczności, kiedy będziesz musiał zmaksymalizować prawdopodobieństwo z zastrzeżeniem pułapu - a wtedy powinieneś „pamiętać” o uwzględnieniu jakichkolwiek stałych w obliczeniach jego wartości.

Ponadto możesz przeprowadzać testy wyboru modelu dla modeli nie zagnieżdżonych, wykorzystując wartość prawdopodobieństwa w procesie - a ponieważ modele nie są zagnieżdżone, dwa prawdopodobieństwa będą miały różne stałe.

Poza tym zdanie

„Ponieważ prawdopodobieństwo jest określone tylko do multiplikatywnej stałej proporcjonalności (lub dodatkowej stałej dla logarytmu prawdopodobieństwa)”

jest źle , bo prawdopodobieństwo jest pierwszy wspólna funkcja gęstości prawdopodobieństwa , a nie tylko „any” funkcja celu mają być zmaksymalizowane.


3
θθ

3
Myślę, że musisz być bardziej ostrożny z językiem. Prawdopodobieństwo jest funkcją parametrów stałej próbki, ale jest równoważne gęstości połączenia w przestrzeni próbki . Oznacza to, że Spowoduje to całkowanie do w przestrzeni próbki, ale niekoniecznie przypadku integracji w przestrzeni parametrów. Kiedy mówisz „prawdopodobieństwo to gęstość, postrzegana jako funkcja parametrów”, brzmi to tak, jakbyś miał na myśli „gęstość względem parametrów”, co nie jest. 1 1
L(θx)=f(xθ).
11
heropup

1
@heropup Już napisałem, że niekoniecznie integruje się z jednością w przestrzeni parametrów, a więc natychmiast nie można go uznać za „funkcję gęstości”, gdy jest postrzegana jako „funkcja parametrów”.
Alecos Papadopoulos

1
Tak, wiem. Chodzi mi o to, że zwrot „Funkcja prawdopodobieństwa jest funkcją gęstości, postrzeganą jako funkcja parametrów”, jest myląca. Bardziej precyzyjnie byłoby powiedzieć coś takiego: „Funkcja prawdopodobieństwa jest funkcją parametrów dla stałej próbki i jest równoważna (lub proporcjonalna) gęstości złącza w przestrzeni próbki”.
heropup

1
@heropup Twoje pożądane stwierdzenie, że „Funkcja prawdopodobieństwa ... jest równoważna (lub proporcjonalna) do gęstości złącza w przestrzeni próbki” byłaby rzeczywiście znacznie bardziej precyzyjna, ale równie niepoprawna. Funkcja prawdopodobieństwa nie jest ani równoważna, ani proporcjonalna do gęstości złącza, ponieważ „współczynnik proporcjonalności” nie jest stały (chyba że wcześniejszy rozkład nieznanego parametru jest równomiernie rozłożony w przedziale). Gęstość połączenia wynosi gdzie jest prawdopodobieństwem, a jest wcześniejszym rozkładem parametru. L f ( θ )L(xθ)f(θ)Lf(θ)
Dilip Sarwate
Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.