Sortowanie Radix jest teoretycznie bardzo szybkie, gdy wiesz, że klucze znajdują się w pewnym ograniczonym zakresie, np. wartości z zakresu [ 0 … n k - 1 ] . Jeśli k < lg n po prostu przekonwertujesz wartości na bazę n, co zajmuje Θ ( n ) czasu, wykonaj sortowanie podstawy n radix, a następnie przekonwertuj z powrotem na pierwotną bazę dla ogólnego algorytmu Θ ( n k ) .
Jednak przeczytałem, że w praktyce sortowanie radix jest zwykle znacznie wolniejsze niż na przykład zrobienie losowego szybkiego sortowania :
W przypadku dużych tablic sortowanie radix ma najniższą liczbę instrukcji, ale ze względu na stosunkowo słabą wydajność pamięci podręcznej jego ogólna wydajność jest gorsza niż zoptymalizowane pod względem pamięci wersje scalesort i quicksort.
Czy sortowanie radix jest po prostu dobrym algorytmem teoretycznym, czy może ma on praktyczne zastosowania?