Czy „Gdzie są naprawdę trudne problemy”? Jakie są aktualne pomysły na ten temat?


27

Uważam ten artykuł za bardzo interesujący. Podsumowując: omawia, dlaczego w praktyce rzadko znajduje się najgorszy przypadek problemu NP-zupełnego. Idea tego artykułu polega na tym, że przypadki są zwykle bardzo niedostatecznie lub bardzo przeciążone, a oba są stosunkowo łatwe do rozwiązania. Następnie proponuje dla kilku problemów miarę „ograniczenia”. Wydaje się, że problemy te mają „przejście fazowe” od 0 prawdopodobieństwa rozwiązania do 100% prawdopodobieństwa. Następnie hipoteza:

  1. Że wszystkie problemy związane z NP (a nawet wszystkie problemy z NP) mają miarę „powściągliwości”.
  2. Że dla każdego problemu NP-zupełnego można utworzyć wykres prawdopodobieństwa rozwiązania istniejącego w funkcji „ograniczenia”. Co więcej, wykres ten będzie zawierał przejście fazowe, w którym to prawdopodobieństwo szybko i dramatycznie wzrasta.
  3. Najgorsze przykłady problemów związanych z NP-zupełnością dotyczą przejścia fazowego.
  4. Fakt, czy problem polega na tym przejściu fazowym, pozostaje niezmienny w przypadku transformacji jednego problemu pełnego NP.

Ten artykuł został opublikowany w 1991 roku. Moje pytanie brzmi: czy w ciągu ostatnich 25 lat były jakieś badania uzupełniające te pomysły? A jeśli tak, to co o nich myśli obecny główny nurt? Czy uznano je za prawidłowe, niepoprawne, nieistotne?


Losowe przypadki CSP, k-sat, k-kolorowania były szeroko badane przez społeczność TCS. Na przykład fakt, że gęstość / „ograniczoność”, przy której możemy skutecznie rozwiązać konkretny problem, jest często niższy niż próg, przy którym prawdopodobieństwo istniejącego rozwiązania wynosi od 1 do 0 whp, przyciągnął wiele uwagi.
JWM

Przy jakim prawdopodobieństwie leży próg „łatwej do rozwiązania” (z grubsza)? Czy to bardziej jak 0,2 czy więcej jak 0,001?
dimpol

1
@dimpol zwykle nie jest zdefiniowany tak precyzyjny próg. Chodzi o to, w jakim „ograniczeniu” prawdopodobieństwo idzie do 0 lub 1 przy wielkości wejściowej. Typowa instrukcja brzmiałaby: „Algorytm A rozwiązuje losową instancję 3-SAT za pomocą zmiennych i klauzul z prawdopodobieństwem co najmniej , gdzie idzie do 1 za pomocą .” Próg to wartość dla której prawdopodobieństwo zmienia się z tendencji do 0 do tendencji do 1.nΔnpnpnnΔ
Sasho Nikolov

myślę, że pomysły były ogólnie bardzo wpływowe i istnieje bardzo duży zestaw artykułów związanych z tym tematem i badania są kontynuowane. jest to jednak koncepcja przekrojowa, ponieważ przejścia fazowe pochodzą w większym stopniu z fizyki i (odpowiedź MAT poniżej) może informatycy są nieco bardziej sceptyczni co do ich znaczenia, a także wydaje się być bardziej koncepcją empiryczną / eksperymentalną. może postarać się wypracować odpowiedź w niektórych punktach, jeśli inni zgadzają się z tym komentarzem, ale na razie zapraszam / zdecydowanie polecam dalszą dyskusję / analizę na Teoretycznym Czacie Informatycznym
dniu

1
zobacz także, jak powszechne jest przejście fazowe w NP całkowitych problemów . także uważam, że Walsh 1998 ostrze noża ograniczającego jest znaczące i nie było za nim wiele śledzone, jest powiązane z punktem przejścia, ale może nie do końca ta sama koncepcja ... artykuł nie wspomina bezpośrednio o fraktalach, ale uważa, że ​​jest wysoce sugestywny samopodobieństwo, niezmienność skali itp.
wer

Odpowiedzi:


26

Oto przybliżone podsumowanie statusu na podstawie prezentacji wygłoszonej przez Vardiego podczas warsztatów na temat teorii modeli skończonych i algorytmicznych (2012):

Zaobserwowano, że trudne przypadki leżą w przejściu fazowym od regionu niedostatecznie do nadmiernie ograniczonego. Podstawowa hipoteza jest taka, że ​​istnieje silny związek między przejściami fazowymi a złożonością obliczeniową problemów NP.

Achlioptas – Coja-Oghlan stwierdził, że w zadowalającym regionie występuje gęstość, w której przestrzeń rozwiązania rozbija się wykładniczo na wiele małych klastrów. Vinay Deolalikar oparł swoją słynną próbę udowodnienia na założeniu, że rozbicie oznacza twardość obliczeniową. Dowód Deolalikara został obalony przez fakt, że XOR-SAT jest w i rozpada się. Dlatego rozbicia nie można użyć do udowodnienia twardości obliczeniowej.PNPP

Obecne myślenie głównego nurtu wydaje się (jak stwierdził Vardi), że przejścia fazowe nie są nieodłącznie związane ze złożonością obliczeniową.

Wreszcie, oto artykuł opublikowany w Nature, który bada związek między przejściami fazowymi a twardością obliczeniową K-SAT.


Dzięki za przegląd, szkoda, że ​​nie doprowadziło to do żadnych prawdziwych przełomów.
dimpol

1
Myślę, że zjawiska druzgocące mogą być uznane za wykluczające klasę algorytmów opartych na wyszukiwaniu lokalnym, które są podstawą wielu algorytmów heurystycznych dla problemów trudnych dla NP.
Kaveh

3
podobna / nieco poprawiona rozmowa / wideo Vardi, 2014, przejścia fazowe i złożoność obliczeniowa , międzynarodowa stacja badawcza Banff
dniu

@vzn Nice, musi obejrzeć wideo Vardi.
Mohammad Al-Turkistany

14

Tak, było dużo pracy od czasu publikacji Cheesemana, Kanefsky'ego i Taylora w 1991 roku.

Przeszukanie recenzji przejść fazowych problemów NP-Complete da wiele wyników. Jedną z takich recenzji jest Hartmann i Weigt [1]. Aby zapoznać się z wprowadzeniem na wyższy poziom, zobacz artykuły amerykańskiego naukowca Briana Hayesa [2] [3].

Artykuł Cheesemena, Kanefsky'ego i Taylora z 1991 roku jest niefortunnym przypadkiem informatyków, którzy nie zwracają uwagi na literaturę matematyczną. W artykule Cheesemana, Kanefsky'ego i Taylora zidentyfikowali Cykl Hamiltona jako przejście fazowe ze wzrostem kosztów wyszukiwania w pobliżu progu krytycznego. Zastosowany przez nich model wykresu losowego był losowym wykresem Erdosa-Renyi (ustalone prawdopodobieństwo krawędzi lub równorzędny rozkład stopni Gaussa). Ten przypadek został dobrze zbadany przed publikacją Cheesemana i wszystkich z 1991 roku ze znanymi prawie pewnymi wielomianowymi algorytmami czasowymi dla tej klasy grafu, nawet przy progu krytycznym lub blisko niego. Dobrym przykładem jest „Losowe wykresy” Bollobasa [4]. Pierwotny dowód, który, jak sądzę, został przedstawiony przez Angliun i Valiant [5], a kolejne ulepszenia Bollobas, Fenner i Frieze [6]. Po Cheesemanie,

Przejście fazowe dla cykli Hamiltona w losowych losowych wykresach Erdosa-Renyi istnieje w tym sensie, że istnieje szybkie przejście prawdopodobieństwa znalezienia rozwiązania, ale nie przekłada się to na wzrost „wewnętrznej” złożoności znalezienia cykli Hamiltona. Prawie pewne są algorytmy wielomianowe do znajdowania cykli hamiltonowskich w losowych grafach Erdosa-Renyi, nawet przy krytycznym przejściu, zarówno w teorii, jak i w praktyce.

Propagacja badania [8] odniosła duży sukces w znalezieniu zadowalających przypadków losowej 3-SAT bardzo blisko progu krytycznego. Moja obecna wiedza jest nieco zardzewiała, więc nie jestem pewien, czy nastąpił duży postęp w znalezieniu „wydajnych” algorytmów dla niezadowalających przypadków w pobliżu progu krytycznego. O ile mi wiadomo, 3-SAT jest jednym z przypadków, w których „łatwo” go rozwiązać, jeśli jest zadowalający i zbliżony do progu krytycznego, ale nieznany (lub trudny?) W przypadku niezadowalającego blisko progu krytycznego.

Moja wiedza jest już trochę przestarzała, ale kiedy po raz ostatni zagłębiłem się w ten temat, wyróżniało się kilka rzeczy:

  • Cykl Hamiltona jest „łatwy” dla losowych wykresów Erdosa-Renyi. Gdzie są trudne problemy?
  • Podział liczbowy powinien być możliwy do rozwiązania, gdy bardzo daleko w prawie pewnym prawdopodobieństwie 0 lub 1 regionie, ale nie istnieją wydajne algorytmy (o ile mi wiadomo) dla nawet umiarkowanych rozmiarów wystąpień (1000 liczb po 500 bitów każdy, o ile mi wiadomo, jest całkowicie trudny do rozwiązania z najnowocześniejsze algorytmy). [9] [10]
  • 3-SAT jest „łatwy” w przypadku zadowalających wystąpień w pobliżu progu krytycznego, nawet w przypadku dużych rozmiarów wystąpień (miliony zmiennych), ale trudny w przypadku niezadowalających wystąpień w pobliżu progu krytycznego.

Waham się tutaj, ponieważ nie opublikowałem żadnych recenzowanych artykułów, ale napisałem swoją pracę magisterskąw temacie. Główną ideą jest to, że możliwą klasą zespołów losowych (cykle hamiltonowskie, problem podziału liczbowego itp.), Które są „wewnętrznie twarde”, są te, które mają właściwość „niezmienności skali”. Rozkłady stabilne podatkowo są jednym z bardziej naturalnych rozkładów o tej jakości, z ogonami prawa mocy, i można wybierać losowe wystąpienia z zestawów NP-Complete, które w jakiś sposób zawierają rozkład stabilny podatkowo. Dałem trochę słabych dowodów na to, że można znaleźć wewnętrznie trudne instancje cyklu Hamiltonianowskiego, jeśli losowe wykresy zostaną wybrane z rozkładem stopnia stabilnego wg Levy'ego zamiast rozkładu normalnego (tj. Erdos-Renyi). Jeśli nic więcej, będzie to przynajmniej punkt wyjścia do przeglądu literatury.

[1] AK Hartmann i M. Weigt. Przejścia fazowe w problemach optymalizacji kombinatorycznej: podstawy, algorytmy i mechanika statystyczna. Wiley-VCH, 2005.

[2] B. Hayes. Najłatwiejszy trudny problem. American Scientist, 90 (2), 2002.

[3] B. Hayes. Na progu American Scientist, 91 (1), 2003.

[4] B. Bollobás. Losowe wykresy, wydanie drugie. Cambridge University Press, Nowy Jork, 2001.

[5] D. Angluin i LG Valiant. Szybkie algorytmy probabilistyczne dla obwodów Hamiltona i dopasowań. J. Computer, Syst. Sci., 18: 155–193, 1979.

[6] B. Bollobás, TI Fenner i AM Frieze. Algorytm znajdowania ścieżek i cykli Hamiltona na losowych wykresach. Combinatorica, 7: 327–341, 1987.

[7] B. Vandegriend i J. Culberson. Przejście fazowe Gn, m nie jest trudne dla problemu cyklu Hamiltona. J. of AI Research, 9: 219–245, 1998.

[8] A. Braunstein, M. Mézard i R. Zecchina. Propagacja ankiety: algorytm satysfakcji. Struktury losowe i algorytmy, 27: 201–226, 2005.

[9] I. Gent i T. Walsh. Analiza heurystyki dla podziału liczb. Inteligencja obliczeniowa, 14: 430–451, 1998.

[10] CP Schnorr i M. Euchner. Redukcja podstawy kraty: Ulepszone praktyczne algorytmy i rozwiązywanie problemów sum częściowych. W Proceedings of Fundamentals of Computation Theory '91, L. Budach, red., Lecture Notes in Computer Science, tom 529, strony 68–85, 1991.


0

25 lat nauki i gdzie są obecne pomysły:

+++ pomysł 1:

Z mojego doświadczenia w rozwiązywaniu problemów z zadowalaniem odkryłem w praktyce, że dodanie prawidłowej klauzuli k do formuły, którą próbujemy rozwiązać, jest podobne do decydowania o zmiennej (nk) qbf.

Wydaje się, że jest to podejście do pokazania, że ​​obecne metody rozwiązywania problemów w sieciach satelitarnych są trudne!

+++ pomysł 2:

Innym pomysłem jest to, że problem AllQBF jest prawdziwym problemem w hierarchii boolowskiej. Problem AllQBF polega na: Wytworzenie logicznego wyrażenia Q, które decyduje o wszystkich 2 ^ n qbfach formuły R. AllQBF jest łatwe, gdy oryginalna formuła R jest monotoniczna lub 2-cnf.

Wszystkie QBF wydają się prawdopodobną drogą do pokazania QBF to Exp, ponieważ Q jest często wykładniczy, więc ocena przypisania Q (kwantyfikacja oryginalnej formuły R) jest wykładnicza. Tak więc droga do udowodnienia NP to Exp zawiera przynajmniej kilka cegieł.

+++ idea 3: Zwykłe k-cnfs

Przy okazji, we wszystkich badaniach przemiany fazowej pominięto Regularne k-cnfs, gdzie liczba wystąpień zmiennej (w obu kierunkach) jest stała, podobnie jak w przypadku regularnych wykresów ... Regularne k-cnfs stają się znacznie trudniejsze niż model standardowy, ponieważ wszystkie zmienne wyglądają identycznie pod względem ograniczeń na nich.

Dwadzieścia pięć lat temu, tuż po przeczytaniu cheesemana, skupiłem się na stopniowym kolorowaniu grafów, ponieważ wszystkie zmienne wyglądają tak samo. Wykorzystam więc ten przywilej odpowiedzi i przedstawiam dwadzieścia pięć lat wyników na regularnych wykresach!

+++ pomysł 4: Złote punkty za badania porównawcze satysfakcji

Dość intensywnie badałem zabarwienie C grafów D regularnych N wierzchołków. Poniższa tabela podsumowuje wyniki Golden Point dla regularnego kolorowania wykresów.

Dla wysokiego prawdopodobieństwa N losowych wystąpień było zadowalających. Dla Very High N ^ 2 były zadowalające. W przypadku Super High losowe przypadki N ^ 3 były zadowalające.

Punkty złotego kolorowania o wysokim prawdopodobieństwie (1 - 1 / N) to:

C3D5N180 C4D6N18 C4D7N35 C4D8N60 C4D9N180? C5D10N25 C5D11N42 C5D12N72

Punkty barwienia o bardzo wysokim prawdopodobieństwie (1 - 1 / (N ^ 2)) to:

C3D5N230? C4D6N18 C4D7N36 C4D8N68 C4D9N ??? C5D10N32 C5D11N50 C5D12N78

Punkty złotego zabarwienia o bardzo wysokim prawdopodobieństwie (1 - 1 / (N ^ 3)) to:

C3D5N ??? C4D6N22 C4D7N58 C4D8N72? C4D9N ??? C5D10N38 C5D11N58 C5D12N ??

Wpis C4D9 oznacza cztery kolory wykresów dziewiątego stopnia. To najtrudniejsze losowe 4cnfs, jakie spotkałem w ciągu 25 lat rozwiązywania problemów. Niedawno pokolorowałem wykres dziewiątego stopnia 172 wierzchołek po dziesięciu dniach procesora.

+++ Idea 5: C5D16N ???? Przypuszcza się, że Golden Point istnieje.

Dzięki, Daniel Pehoushek


4
To nie jest właściwe miejsce do prezentacji niepublikowanych badań. Napisz artykuł wyjaśniający wszystko szczegółowo, umieść go w arxivie lub gdzieś indziej, i zamieść tutaj link z podsumowaniem.
Sasho Nikolov

Punkt regularnego kolorowania wykresu C4D9 jest wyjątkowo trudnym punktem, jak na tytuł w pytaniu. Potrzebował trochę kontekstu, a więc reszty tabeli.
Daniel Pehoushek
Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.