Wiem o pracy Shannona z entropią, ale ostatnio pracowałem nad zwięzłymi strukturami danych, w których entropia empiryczna jest często używana jako część analizy pamięci.
Shannon zdefiniował entropię informacji wytwarzanej przez dyskretne źródło informacji jako , gdzie jest prawdopodobieństwem wystąpienia zdarzenia , np. Wygenerowany określony znak, i istnieją możliwe zdarzenia.
Jak wskazał MCH w komentarzach, entropia empiryczna jest entropią rozkładu empirycznego tych zdarzeń i dlatego jest podana przez gdzie to liczba zaobserwowanych wystąpień zdarzenia a to całkowita liczba zaobserwowanych zdarzeń. Nazywa się to entropią empiryczną rzędu zerowego . Pojęcie entropii warunkowej Shannona ma podobną wersję empiryczną wyższego rzędu .
Shannon nie użył terminu entropia empiryczna, choć z pewnością zasługuje na uznanie za tę koncepcję. Kto pierwszy użył tego pomysłu, a kto pierwszy użył (bardzo logicznej) nazwy empirycznej entropii, aby go opisać?