Renyi entropia jest analogiczna, w pewnym sensie, do -norms, więc najpierw przypomnieć Załóżmy, dlaczego te normy są użyteczne.ℓp
Załóżmy, że mamy wektor liczb . Chcemy mieć jeden numer, który reprezentuje w pewnym sensie, w jaki sposób typowy element o wyglądać.a∈Rna
Jednym ze sposobów jest pobranie średniej liczb w , która z grubsza odpowiada normie ℓ 1 : E 1 ≤ i ≤ n [ | I | ] . Jest to często przydatne, ale w przypadku niektórych aplikacji ma następujące problemy: Po pierwsze, norma ℓ 1 nie daje nam dobrej górnej granicy największego elementu a , ponieważ jeśli jest jeden duży element i wiele zer, ℓ 1 norma będzie znacznie mniejsza niż największy element. Z drugiej strony ℓ 1aℓ1E1≤i≤n[|ai|]ℓ1aℓ1ℓ1norma również nie daje nam dobre związanie na jak małe elementy są, na przykład, ile zer ma - ten problem występuje w dokładnie taki sam scenariusz jak poprzednio.aa
Oczywiście, gdy elementy dużo sprzeczności, tak jak w scenariuszu skrajnym jak powyżej, żadna ilość może dać rozwiązać oba problemy powyżej. Mamy kompromis. Na przykład, jeśli chcemy poznać tylko największy element, możemy zastosować normę ℓ ∞ , ale wtedy utracimy wszystkie informacje o mniejszych elementach. Jeśli chcemy liczby zer, możemy spojrzeć na normę ℓ 0 , która jest tylko rozmiarem wsparcia a .aℓ∞ℓ0a
Powodem do rozważenia norm jest to, że dają nam one ciągły kompromis między dwiema skrajnościami. Jeśli chcemy uzyskać więcej informacji na temat dużych elementów, przyjmujemy, że p jest większe i odwrotnie.ℓpp
To samo dotyczy entropii Renyi: entropia Shanon jest jak normą - mówi nam coś o „typowej” prawdopodobieństwa elementu, ale nic o wariancji lub skrajnościami. Minimalna entropia daje nam informacje o elemencie z największym prawdopodobieństwem, ale traci wszystkie informacje o reszcie. Rozmiar podpory daje drugą skrajność. Entropie Renyi dają nam ciągły kompromis między dwiema skrajnościami.ℓ1
Na przykład, wielokrotnie entropia Renyi-2 jest przydatna, ponieważ z jednej strony jest bliska entropii Shanona, a zatem zawiera informacje o wszystkich elementach w rozkładzie, a z drugiej strony daje więcej informacji o elementach o największej prawdopodobieństwo. W szczególności wiadomo, że granice entropii Renyi-2 dają granice min-entropii, patrz np. Załącznik A tutaj: http://people.seas.harvard.edu/~salil/research/conductors-prelim .ps