Też się zastanawiałem. Pierwsze wytłumaczenie nie jest złe, ale oto moje 2 naty za cokolwiek, co jest warte.
Po pierwsze, zakłopotanie nie ma nic wspólnego z określaniem, jak często odgadujesz coś dobrze. Ma to więcej wspólnego z charakteryzowaniem złożoności sekwencji stochastycznej.
2−∑xp(x)log2p(x)
Najpierw anulujmy dziennik i potęgowanie.
2−∑xp(x)log2p(x)=1∏xp(x)p(x)
Myślę, że warto zauważyć, że zakłopotanie jest niezmienne w stosunku do bazy, której używasz do definiowania entropii. W tym sensie zakłopotanie jest nieskończenie bardziej wyjątkowe / mniej arbitralne niż entropia jako miara.
Związek z kościami
11212×1212=2
N1(1N1N)N=N
Tak więc zakłopotanie reprezentuje liczbę boków uczciwej kości, która po rzuceniu tworzy sekwencję z taką samą entropią, jak podany rozkład prawdopodobieństwa.
Liczba stanów
NN+1NϵNN+1ϵNxpxNp′x=px(1−ϵ)
1ϵϵ∏Nxp′xp′x=1ϵϵ∏Nx(px(1−ϵ))px(1−ϵ)=1ϵϵ∏Nxppx(1−ϵ)x(1−ϵ)px(1−ϵ)=1ϵϵ(1−ϵ)(1−ϵ)∏Nxppx(1−ϵ)x
ϵ→01∏Nxpxpx
Kiedy sprawiasz, że przewracanie jednej strony kostki staje się coraz bardziej mało prawdopodobne, zakłopotanie kończy się na tym, że ta strona nie istnieje.