Szukam książki lub zasobu online, który wyjaśnia różne rodzaje entropii, takie jak Sample Entropy i Shannon Entropy oraz ich zalety i wady. Czy ktoś może skierować mnie we właściwym kierunku?
Szukam książki lub zasobu online, który wyjaśnia różne rodzaje entropii, takie jak Sample Entropy i Shannon Entropy oraz ich zalety i wady. Czy ktoś może skierować mnie we właściwym kierunku?
Odpowiedzi:
Cover i książka Thomasa Elementy teorii informacji są dobrym źródłem na temat entropii i jej zastosowań, chociaż nie wiem, że dotyczy dokładnie tych problemów, które masz na myśli.
Te uwagi do wykładu na temat teorii informacji autorstwa O. Johnsona zawierają dobre wprowadzenie do różnych rodzajów entropii.
Jeśli jesteś zainteresowany statystyką matematyczną dotyczącą entropii, możesz zajrzeć do tej książki
http://www.renyi.hu/~csiszar/Publications/Information_Theory_and_Statistics:_A_Tutorial.pdf
jest dostępny za darmo!
Entropia jest tylko jedna (jako koncepcja) - ilość informacji potrzebna do opisania jakiegoś systemu; jest tylko wiele jego uogólnień. Przykładowa entropia to tylko niektóre deskryptory podobne do entropii używane w analizie tętna.
Artykuł Grünwalda i Dawida Teoria gry, maksymalna entropia, minimalna rozbieżność i solidna teoria decyzji Bayesa omawiają uogólnienia tradycyjnego pojęcia entropii. Biorąc pod uwagę stratę, związaną z nią funkcją entropii jest mapowanie z rozkładu na minimalną możliwą do uzyskania oczekiwaną stratę dla tego rozkładu. Zwykłą funkcją entropii jest uogólniona entropia związana z utratą dziennika. Inne wybory strat dają inną entropię, taką jak entropia Rényi.