Jakie są główne przykłady udanej derandomizacji lub przynajmniej postępów w wykazywaniu konkretnych dowodów w kierunku celu (a nie związku losowości z twardością)?
Jedyny przykład, jaki przychodzi mi na myśl, to deterministyczne badanie pierwotności wielomianów czasowych AKS (nawet w tym przypadku istniała metodologia zakładająca GRH). Więc jakie konkretne dowody na przykładzie mamy do derandomizacji (znowu nie połączenie twardości czy wyroczni)?
Zachowaj przykłady tylko tam, gdzie wykazano poprawę złożoności czasowej od losowego poli do deterministycznego poli lub czegoś, co jest bardzo bliskie konkretnym problemom.
Poniżej znajduje się bardziej komentarz i nie wiem wiele, pomoże to zapytanie.
Chazelle ma bardzo intrygujące stwierdzenie w http://www.cs.princeton.edu/~chazelle/linernotes.html w części „The Discrepancy Method: Randomness and Complexity (Cambridge University Press, 2000)”.
„To dla mnie niekończące się źródło fascynacji, że głębsze zrozumienie obliczeń deterministycznych powinno wymagać opanowania losowości. Napisałem tę książkę, aby zilustrować to potężne połączenie. Od minimalnych drzew opinających do programowania liniowego po triangulacje Delaunaya, najbardziej wydajnymi algorytmami są często derandomizacje rozwiązań probabilistycznych. Metoda rozbieżności rzuca światło na jedno z najbardziej owocnych pytań w całej informatyce: jeśli uważasz, że potrzebujesz losowych bitów, powiedz nam dlaczego?