Deterministyczna redukcja błędów, najnowocześniejszy?


12

Załóżmy, że jeden ma losowy (BPP) algorytm A przy użyciu r bitów przypadkowości. Istnieją naturalne sposoby na zwiększenie prawdopodobieństwa sukcesu do 1δ dla każdego wybranego δ>0

  • Niezależne przebiegi + większość głosów: przebieg A niezależnie T=Θ(log(1/δ) razy ) i przyjmowanie większości głosów z wyjść. Wymaga to rT=Θ(rlog(1/δ)) bitów losowości i wydłuża czas działania o współczynnik T=Θ(log(1/δ)) .
  • Przebiegi niezależne od par + Czeczeszew: uruchom A „parami niezależnie” T=Θ(1/δ) razy i porównaj z progiem Wymaga to losowości rT=Θ(r/δ) i wydłuża czas działania o współczynnik T=Θ(1/δ) .

Karp, Pippenger i Sipser [1] (podobno, nie mogłem dostać w swoje ręce samego papieru, jest to konto z drugiej ręki), pod warunkiem, alternatywne podejścia oparte na silnych regularnych ekspanderów: w zasadzie, patrz 2r węzły ekspandera jak losowe nasiona. Wybierz losowy węzeł ekspandera za pomocą r losowych bitów, a następnie

  • stamtąd wykonaj krótki losowy spacer o długości T=Θ(log(1/δ)) i uruchom A na nasionach T odpowiadających węzłom na ścieżce, zanim przejmiesz większość głosów. Wymaga to r+T=r+Θ(log(1/δ)) bitów losowości i wysadza czas działania o współczynnik T=Θ(log(1/δ)) .

  • uruchom A na wszystkich sąsiadach bieżącego węzła (lub, bardziej ogólnie, na wszystkich węzłach w odległości c od bieżącego węzła) przed przejęciem większości głosów. Wymaga to r bitów losowości i wydłuża czas działania o współczynnik T=d , gdzie d jest stopniem (lub dc dla sąsiedztwa odległości c . Dobrze skonfigurowanie parametrów, co ostatecznie kosztuje T=poly(1/δ) tutaj.

Interesuje mnie ostatni punkt, który odpowiada deterministycznej redukcji błędów. Czy nastąpiła poprawa po [1], zmniejszająca zależność T od δ ? Co jest obecnie najlepiej osiągalnym - 1/δγ dla którego γ>1 ? γ>0 ? (Dla BPP ? Dla RP ?)

Uwaga: Interesuje mnie również (bardzo) RP zamiast BPP . Jak wprowadzono w [2], odpowiednią konstrukcją nie są już ekspandery, lecz rozpraszacze (patrz np. Notatki do wykładu Ta-Shmy, zwłaszcza Tabela 3). Nie mogłem jednak znaleźć odpowiednich granic dla deterministycznego (ani jednego bardziej losowego bitu niż dozwolone r ) wzmocnienia, ani (co ważniejsze) jakie są najnowocześniejsze konstrukcje jawnego rozpraszacza dla odpowiedniego zakresu parametrów .


[1] Karp, R., Pippenger, N. i Sipser, M., 1985. Kompromis czasowo-losowy . Na konferencji AMS nt. Probabilistycznej złożoności obliczeniowej (tom 111).

[2] Cohen, A. i Wigderson, A., 1989, październik. Dyspergatory, deterministyczne wzmocnienie i słabe źródła losowe. W 30. dorocznym sympozjum na temat podstaw informatyki (s. 14–19). IEEE.


Rozumiem, co następuje (głównie w wyżej wspomnianych notatkach z wykładów Ta-Shmy , te van van Melkebeka i te autorstwa Cynthii Dwork . O ile wiem, dyspergatory są świetne do wykładniczego wzmocnienia, biorąc pod uwagę kilka losowych bitów , ale nie jeśli jest 0 dodatkowych bitów losowości
Clement C.

poly(1/δ)

1/δ

Istotne (ale nie odpowiada na konkretne pytanie): sekcja 3.5.4 i sekcja 4 (problem 4.6) pseudolosowości Salila Vadhana .
Clement C.

Odpowiedzi:


3

O(1/δ)λO(δ)λ=O(1/d)

C/δCO(1/δ)

Ω(1/δ)


α>0dR=2rλδCαCαd(N,d)λC/dNdd=Oα(1/δ)

dd1λ=O(1/d) nnO((log3d)/d)
Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.