Czytam stąd dowód i natknąłem się na problem techniczny (ale kluczowy). Wiem, że jest to dość specyficzne i kontekst jest problematyczny, ale sam nie mogłem tego pojąć.
Na stronach 51 i 55, po przedstawieniu „standardowych” weryfikatorów, przechodzą do modyfikacji weryfikatorów w celu sprawdzenia podzielonych zadań.
W pierwszym przypadku (s. 51) sprawdzają, czy są zamykają się na kod wielomianowy, a następnie wykorzystują Algebraizację (+ testery zerowe) do konstruowania rodziny wielomianów (z sumą -Sprawdź właściwość związaną z formułą wejściową), że każdą można ocenić w punkcie podanym 3 wartościami każdego z (słowa kodowe wielomianowego kodu szafy do ).
W drugim przypadku (s. 55) sprawdzają, czy mają wartość są bliskie liniowości, a następnie definiują funkcję jako specjalną sumę takie, że może być oceniany w miejscu danej wartości każdego z (Pomiary liniowe szafy ).
Następnie w obu przypadkach przeprowadzają testy (Sum-Check lub Tensor + Hadamard) na wartościach losowego wielomianu w rodzinie / .
Mój problem polega na tym, że procedura rekonstrukcji wymaganych wartości każdego z może dostarczyć niepoprawne wartości z pewnym stałym prawdopodobieństwem . Ponadto prawdopodobieństwo, że wszystkie wartości zostaną poprawnie zrekonstruowane, jest bardzo niskie, tylko dla niektórych stałych . Dotyczy to obu przypadków.
Może to być złe, ponieważ niektóre etapy weryfikatorów wymagają uzyskania wartości funkcji docelowej / a wielomianu z rodziny whp
Musimy więc zwiększyć prawdopodobieństwo sukcesu poprzez wielokrotne stosowanie „procedury algebraicznej rekonstrukcji” trochę razy dla każdego .
Oznacza to, że powiększenie złożoności zapytania podprogramu (w stosunku do złożoności zapytania oryginalnych weryfikatorów) jest nieco większe niż , tzn. Jest to (w przeciwieństwie do „gwarantowane” - „pożądane” wysadzenie w twierdzeniu twierdzeń).
Czy to problem, czy coś mi brakuje? (Prawdopodobnie jestem)?