Kod Huffmana dla rozkładu prawdopodobieństwa jest kodem prefiksu o minimalnej średniej ważonej długości słowa kodowego , gdzie jest długością tego słowa kluczowego. Jest dobrze znanym twierdzeniem, że średnia długość na symbol kodu Huffmana zawiera się między a , gdzie jest entropią Shannona rozkładu prawdopodobieństwa.
Kanoniczny zły przykład, w którym średnia długość przekracza entropię Shannona o prawie 1, jest rozkładem prawdopodobieństwa, takim jak , gdzie entropia wynosi prawie 0, a średnia długość słowa kodowego wynosi 1. To daje przerwa między entropią a długością słowa kodowego wynosząca prawie .
Ale co się dzieje, gdy istnieje największe prawdopodobieństwo w rozkładzie prawdopodobieństwa? Załóżmy na przykład, że wszystkie prawdopodobieństwa są mniejsze niż . Największa luka, jaką mogłem znaleźć w tym przypadku, dotyczy rozkładu prawdopodobieństwa, takiego jak , gdzie entropia jest nieco większa niż 1, a średnia długość słowa kodowego jest nieco mniejsza niż 1,5, co daje przerwa zbliża się do . Czy to najlepsze, co możesz zrobić? Czy możesz podać górną granicę odstępu, która jest ściśle mniejsza niż 1 w tym przypadku?
Rozważmy teraz przypadek, w którym wszystkie prawdopodobieństwa są bardzo małe. Załóżmy wybrać rozkład prawdopodobieństwa nad literami, każda o prawdopodobieństwo . W takim przypadku największa luka występuje, jeśli wybierzesz . Tutaj masz lukę około Czy to najlepsze, co możesz zrobić w sytuacji, gdy wszystkie prawdopodobieństwa są małe?
To pytanie zostało zainspirowane pytaniem TCS Stackexchange .