Powszechnie wiadomo, że jeśli wrzucisz n piłek do n pojemników, najprawdopodobniej w najbardziej załadowanym pojemniku będą znajdować się kulki . Ogólnie można zapytać o piłek w pojemnikach. Artykuł z RANDOM 1998 autorstwa Raaba i Stegera analizuje to szczegółowo, pokazując, że wraz ze wzrostem prawdopodobieństwo gwałtownego przekroczenia wartości oczekiwanej gwałtownie spada. Z grubsza, ustawiając , pokazują, że prawdopodobieństwo zobaczenia więcej niż oznacza.
Ten artykuł ukazał się w 1998 roku i nie znalazłem nic nowszego. Czy istnieją nowe i jeszcze bardziej skoncentrowane wyniki w tym zakresie, czy też istnieją heurystyczne / formalne powody, by podejrzewać, że jest to najlepszy wynik? Powinienem dodać, że pokrewny artykuł na temat wariantu wielokrotnego wyboru, którego współautorem jest Angelika Steger w 2006 r., Również nie cytuje najnowszych prac.
Aktualizacja : W odpowiedzi na komentarz Petera pozwól mi wyjaśnić rzeczy, które chciałbym wiedzieć. Mam tutaj dwa cele.
- Po pierwsze, muszę wiedzieć, które odniesienie do cytowania, i wydaje się, że jest to najnowsza praca nad tym.
- Po drugie, prawdą jest, że wynik jest dość ciasny w zakresie r = 1. Interesuje mnie zakres m >> n, a konkretnie dziedzina, w której r może być pol log n, a nawet n ^ c. Próbuję podzielić ten wynik na lemat, który udowodniłem, a specyficzne ograniczenie r kontroluje inne części ogólnego algorytmu. Myślę (ale nie jestem pewien), że zakres r podany przez ten papier może być wystarczający, ale chciałem tylko upewnić się, że nie ma ściślejszego ograniczenia (to dałoby lepszy wynik).