Zaloguj prawdopodobieństwo a iloczyn prawdopodobieństwa


17

Zgodnie z tym artykułem wikipedii można przedstawić iloczyn prawdopodobieństwa x⋅yjako -log(x) - log(y)uczynienie obliczeń bardziej optymalnymi obliczeniowo. Ale jeśli spróbuję podać przykład, powiedz:

p1 = 0.5
p2 = 0.5
p1 * p2 = 0.25
-log(p1) - log(p2) = 2

p3 = 0.1
p4 = 0.1
p3 * p4 = 0.01
-log(p3) - log(p4) = 6.64

Iloczyn prawdopodobieństw p1i p2jest wyższy niż p3i p4, ale prawdopodobieństwo logarytmiczne jest niższe.

Dlaczego?


2
Co jest nie tak? Mniejsze prawdopodobieństwo będzie dawać większe wartości, BO zwiększa się od 0 , gdy p = 1 do jak p 0 . logp0p=1p0
Dilip Sarwate

5
(+1) Dlaczego głosować negatywnie? Myślę, że jest to dobrze napisane pytanie na ten temat, choć bardzo elementarne.
Juho Kokkala

@DilipSarwate mój problem nie dotyczy matematyki, ale tego konkretnego sposobu przedstawiania prawdopodobieństw. Może to tylko kwestia wygody.
spacemonkey

Odpowiedzi:


22

Obawiam się, że źle zrozumiałeś, co zamierza ten artykuł. Nie jest to żadną niespodzianką, ponieważ jest niejasno napisane. Działają się dwie różne rzeczy.

Pierwszym z nich jest po prostu praca w skali dziennika.

Oznacza to, że zamiast „ ” (gdy masz niezależność), zamiast tego można napisać „ log ( p A B ) = log ( p A ) + log ( p B ) ”. Jeśli potrzebujesz rzeczywistego prawdopodobieństwa, możesz potęgować na końcu, aby odzyskać p A B :pAB=pApBlog(pAB)=log(pA)+log(pB)pABpAB=elog(pA)+log(pB), ale jeśli zajdzie taka potrzeba, potęgowanie zwykle pozostawia się do ostatniego możliwego kroku. Jak na razie dobrze.

Druga część jest zastąpienie z - log p . Dzieje się tak, dlatego pracujemy z wartościami dodatnimi.logplogp

Osobiście nie widzę w tym wiele wartości, zwłaszcza, że ​​odwraca kierunek dowolnego uporządkowania ( rośnie monotonicznie, więc jeśli p 1 < p 2 , to log ( p A ) < log ( p 2 ) ; to kolejność jest odwrócona za pomocą - log p ).logp1<p2log(pA)<log(p2)logp

logp

si=log(pi)spAB=e[sA+sB]. As you see, that reverses direction a second time, giving us back what we need.


2
+1 "Think of negative log probability as a scale of "rarity" - the larger the number, the rarer the event is"
Zhubarb
Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.