Kiedy mówisz, że „treść informacji może pozostać taka sama”, czy masz na myśli informację w łącznym sygnale, czy informację o pożądanym sygnale? Mam nadzieję, że rozwiąże to oba przypadki. Wiem, że entropia Shannona jest znacznie lepsza niż Kołmogorow, więc użyję tego, ale mam nadzieję, że logika przetłumaczy.
Załóżmy, że jest całkowity sygnał ( ), składa się z sumy żądany sygnał i swojej składowej szumu . Nazwijmy entropia . Jak powiedziałeś, hałas zwiększa entropię systemu, zwiększając jego złożoność. Jednak nie tylko dlatego, że jesteśmy bardziej niepewni co do zawartości informacyjnej sygnału, ale ponieważ ogólnie jest więcej niepewności w sygnale. Jeśli rodzaj SNR mierzy, jak jesteśmy pewni co do tego , czym jest , to rodzaj mierzy, jak dobrze możemy przewidzieć przyszłe stany na podstawie aktualnego stanuX=S+NXSNHSH(X)XX. Entropia dotyczy stopnia złożoności całego sygnału, niezależnie od składu szumu w porównaniu do szumu.
Jeśli zwiększysz SNR przez usunięcie szumu (tłumienie ), zmniejszysz całkowitą złożoność sygnału , a tym samym jego entropię. Nie straciły wszelkie informacje przenoszone przez , tylko (prawdopodobnie bez znaczenia) informacji niesionej przez . Jeśli jest szumem losowym, to oczywiście nie przenosi znaczących informacji, ale potrzeba pewnej ilości informacji, aby opisać stan , określony przez liczbę stanów, w których N może się znajdować, oraz prawdopodobieństwo jego wystąpienia każdy z tych stanów. To jest entropia.NXSNNN
Możemy spojrzeć na dwa rozkłady Gaussa z różnymi wariancjami, powiedzmy, że jedna ma wariancję a druga wariancję . Patrząc na równanie dla rozkładu Gaussa, widzimy, że rozkład ma maksymalne prawdopodobieństwo, które wynosi tylko wartości prawdopodobieństwa distr. I odwrotnie, oznacza to, że istnieje większe prawdopodobieństwo, że dystr. przyjmie wartości inne niż średnia lub że istnieje większa pewność, że rozkład przyjmie wartości zbliżone do średniej. Zatem rozkład ma niższą entropię niż1100Var=100110var=1Var=100Var=1Var=1Var=100 dystrybucja.
Ustaliliśmy, że wyższa wariancja implikuje wyższą entropię. Patrząc na propagację błędów, prawdą jest również to, że (równe dla niezależnych , ). Jeśli , to dla entropii , . Ponieważ jest (pośrednio) funkcją wariancji, możemy trochę pomieszać, aby powiedzieć . Upraszczając, mówimy, że i są niezależne, więc . Ulepszony SNR często oznacza tłumienie mocy szumu. Ten nowy sygnał o wyższym SNR będzie wtedy , dlaVar(X+Y)>=Var(X)+Var(Y)XYX=S+NHH(X)=H(S+N)HH(Var[X])=H(Var[S+N])SNH(Var[X])=H(Var[S]+Var[N])X=S+(1k)Nk>1 . Entropia staje się wtedy . jest większe niż , więc zmniejszy się, gdy N zostanie osłabiony. Jeżeli maleje, to samo , a zatem , co powoduje spadek .H(Var[X])=H(Var[S]+(1/k)2∗Var[N])k1Var[N]Var[N]Var[S+N]Var[X]H(X)
Przepraszam, niezbyt zwięzłe. W skrócie, „s entropia maleje jeśli wzrost SNR, ale zrobiłeś nic ” informacje s. Nie mogę teraz znaleźć źródeł, ale istnieje metoda obliczania SNR i wzajemnej informacji (dwuwymiarowa miara podobna do entropii) od siebie. Może głównym powodem jest to, że SNR i entropia nie mierzą tego samego.XS