Entropia mówi ci, ile niepewności jest w systemie. Powiedzmy, że szukasz kota, a wiesz, że jest on gdzieś między twoim domem a sąsiadami, który jest oddalony o 1,5 km. Twoje dzieci mówią, że prawdopodobieństwo przebywania kota w odległości od domu najlepiej opisuje rozkład beta . Tak więc kot może znajdować się w przedziale od 0 do 1, ale bardziej prawdopodobne jest, że będzie w środku, tj. .x f(x;2,2)xmax=1/2
rozkład beta do twojego równania, a następnie otrzymasz .H=−0.125
Następnie pytasz swoją żonę, a ona mówi ci, że najlepszym rozkładem opisującym jej wiedzę o twoim kocie jest rozkład jednolity. Jeśli podłączysz go do równania entropii, otrzymasz .H=0
Zarówno dystrybucja jednolita, jak i beta pozwalają kotowi znajdować się w odległości od 0 do 1 mili od twojego domu, ale w mundurze jest więcej niepewności, ponieważ twoja żona tak naprawdę nie ma pojęcia, gdzie kot się ukrywa, podczas gdy dzieci mają jakiś pomysł , myślą , że to bardziej prawdopodobnie będzie gdzieś pośrodku. Właśnie dlatego entropia Beta jest niższa niż entropia Uniform.
Możesz wypróbować inne dystrybucje, być może twój sąsiad powie ci, że kot lubi być w pobliżu jednego z domów, więc jego dystrybucja beta ma postać . Jego musi być znowu niższy niż munduru, ponieważ masz pojęcie o tym, gdzie szukać kota. Zgadnij, czy entropia informacji twojego sąsiada jest wyższa czy niższa niż dzieci? Zakładałbym się na dzieci każdego dnia w tych sprawach.α=β=1/2H
AKTUALIZACJA:
Jak to działa? Jednym ze sposobów myślenia o tym jest rozpoczęcie od jednolitego rozkładu. Jeśli zgadzasz się z tym, że jest to najbardziej niepewny, pomyśl o tym, by mu przeszkadzać. Spójrzmy na dyskretny przypadek dla uproszczenia. Weź z jednego punktu i dodaj go do innego w następujący sposób:
Δp
p′i=p−Δp
p′j=p+Δp
Zobaczmy teraz, jak zmienia się entropia:
Oznacza to, że wszelkie zakłócenia rozkładu równomiernego zmniejszają entropię (niepewność). Aby pokazać to samo w ciągłym przypadku, musiałbym użyć rachunku wariacyjnego lub czegoś wzdłuż tej linii, ale w zasadzie otrzymasz ten sam rodzaj wyniku.
H−H′=pilnpi−piln(pi−Δp)+pjlnpj−pjln(pj+Δp)
=plnp−pln[p(1−Δp/p)]+plnp−pln[p(1+Δp/p)]
=−ln(1−Δp/p)−ln(1+Δp/p)>0
AKTUALIZACJA 2: Średnia jednolitych zmiennych losowych jest samą zmienną losową i pochodzi z rozkładu Batesa . Z CLT wiemy, że wariancja tej nowej zmiennej losowej zmniejsza się z . Tak więc niepewność jego lokalizacji musi maleć wraz ze wzrostem : jesteśmy coraz bardziej pewni, że kot jest w środku. Mój następny wykres i kod MATLAB pokazują, jak entropia zmniejsza się od 0 dla (rozkład równomierny) do . Korzystam z biblioteki Distribution31 tutaj.nn→∞nn=1n=13
x = 0:0.01:1;
for k=1:5
i = 1 + (k-1)*3;
idx(k) = i;
f = @(x)bates_pdf(x,i);
funb=@(x)f(x).*log(f(x));
fun = @(x)arrayfun(funb,x);
h(k) = -integral(fun,0,1);
subplot(1,5+1,k)
plot(x,arrayfun(f,x))
title(['Bates(x,' num2str(i) ')'])
ylim([0 6])
end
subplot(1,5+1,5+1)
plot(idx,h)
title 'Entropy'