Artykuł „Algorytmy subkwadratowe dla 3SUM” autorstwa Ilyi Baran, Erika D. Demaine'a, Mihai Patrascu ma następującą złożoność
3SUM problemów: otrzymuje listę z liczb całkowitych czy istnieją taki sposób, że
Twierdzą oni, „W przypadku standardowego tekstu z pamięci RAM bitowych słów, otrzymujemy czas pracy . W układzie pamięci RAM z jednym niestandardowych operacji otrzymujemy o (n ^ 2 / W ^ 2 \ log W) . W pamięci zewnętrznej, to osiągnąć o (n ^ 2 / (Mb)) , nawet w ramach standardu założenie niepodzielności danych. Nieświadomie cache, otrzymujemy czas działania O (n ^ 2 / MB \ log M) . We wszystkich przypadkach nasze przyspieszenie jest prawie kwadratowe w „równoległości” modelu, który może wykonać, co może być najlepsze możliwe. Zobacz artykuł Barana, Demaine, Patrascu tutaj .O ( n 2 / max { w log w , log n ( log log n ) 2 } ) A C 0 O ( n 2 / w 2 log w ) O ( n 2 / ( M B ) ) O ( n 2 / M B log M )
Niedawno praca Grondlunda i Pettie „Trójkąty, zwyrodnienia i trójkąty miłosne” dowiodła, że „złożoność drzewa decyzyjnego 3SUM to i że istnieje losowy algorytm 3SUM działający w czasie oraz algorytm deterministyczny działający w czas.
Wyniki te obalają najsilniejszą wersję hipotezy 3SUM, a mianowicie, że jej złożoność drzewa decyzyjnego (i algorytmu) wynosi . ”
Zobacz ten drugi artykuł tutaj .
Oczywiście oba są ważnymi dokumentami. Nie będąc ekspertem w tej dziedzinie, moje pytanie dotyczy tego, jak porównać wpływ i znaczenie każdego z nich, biorąc pod uwagę różne modele złożoności. Wszelkie inne wnikliwe komentarze na temat tego problemu są również mile widziane. Na przykład, czy pierwszy artykuł wykluczył już ograniczenie ?