Czy są jakieś sprzeczne z intuicją wyniki w informatyce teoretycznej?
30
Pewne paradoksy matematyczne i logiczne można prawdopodobnie automatycznie zastosować do komputerów, ale czy istnieją jakieś paradoksy odkryte w samej informatyce?
Przez paradoksy rozumiem sprzeczne z intuicją wyniki, które wyglądają jak sprzeczność.
Nie znam odpowiedniego tagu dla tego pytania, może [duże zdjęcie] lub [miękkie pytanie]. Czy możesz podać przykład paradoksów matematycznych, o których wspomniałeś, abyśmy mogli wiedzieć, o czym mówisz?
Oczywiście nie ma żadnych znanych niespójności w informatyce - to by było niepokojące. Czy szukasz tylko sprzecznych z intuicją wyników? Czy wyniki takie jak twierdzenie PCP, twierdzenie o rekurencji Kleene'a i kryptosystemy klucza publicznego są na tyle dziwne, że można je uznać za paradoksy?
@serg, byłoby naprawdę pomocne, gdybyś mógł odpowiedzieć, aby wyjaśnić swoje pytanie. Albo masz na myśli swoje pytanie w bardzo „miękkim” znaczeniu, które sugeruje Thomas - w takim przypadku pytanie jest poprawnie oznaczone jako duże zdjęcie, a moja odpowiedź poniżej jest nie na temat, lub masz na myśli w pewnym sensie technicznym („aplikacje i wpływ logicznych paradoksów w informatyce ”), w którym to przypadku pytanie należy oznaczyć jako logiczne, a nie duże. Lub masz na myśli coś zupełnie innego, czego my czterej komentatorzy nie zgadliśmy!
Przeciwdziałanie intuicyjności jest funkcją czasu. Fakt, że tak wiele różnych pytań jest kompletnych NP, był niewątpliwie sprzeczny z intuicją przed tekstem Karpa, podobnie jak fakt, że kanały mają określone zdolności informacyjne przed Shannonem. Jednak teraz ludzie są przyzwyczajeni do tych wyników.
Uważam, że przepływ sieci jest wielomianowy, licznik czasu jest intuicyjny. Na pierwszy rzut oka wydaje się to o wiele trudniejsze niż wiele problemów NP-trudnych. Innymi słowy, w CS jest wiele wyników, w których czas ich rozwiązania jest o wiele lepszy niż można by się spodziewać.
to samo: kazałem uczniom komentować nieintuicyjność przepływu w sieci, a nawet fakt, że dopasowania można wykonać w czasie wielorakim, wydaje się bardzo zaskakujący.
Nie do końca się zgadzam. Przepływ sieci można łatwo zredukować do programowania liniowego, więc twierdzisz, że programowanie liniowe w P jest sprzeczne z intuicją. Być może. Ale dualność pokazuje, że LP jest w NP i co-NP, co przynajmniej sugeruje, że może nie być to takie trudne. Mniej intuicyjne jest to, że min-cut można rozwiązać w P, ponieważ nie jest to naturalnie problem „ułamkowy”.
Rodzina wyników sprzecznych z intuicją to cała rodzina wyników „udowodnić górną granicę, aby udowodnić dolną granicę”. Wynik Meyera, że implikuje jest jednym z przykładów tego, i przyszło mi to do głowy zarówno z pracy GET Ketana Mulmuleya, jak i niedawnej pracy Ryana Williamsa wynik, który ponownie użył górnej granicy dla CIRCUIT-SAT, aby udowodnić dolną granicę dla pod względem .P=NPN E X P A C CEXP⊈P/polyNEXPACC
SAT ma algorytm wielomianowy tylko wtedy, gdy P = NP. Nie wiemy, czy P = NP. Mogę jednak zapisać algorytm dla SAT, który jest czasem wielomianowym, jeśli P = NP jest prawdziwe. Nie znam prawidłowego odniesienia do tego, ale strona wikipedia podaje taki algorytm i przypisuje Levinowi.
Podobnie mamy sprawdzalny optymalny algorytm faktoringu, który działa w czasie wielomianowym, jeśli faktoring jest w P, ale nie wiemy, czy faktoring jest w P (ani jak analizować czas działania tej optymalnej funkcji).
Jest to zwykle określane jako „uniwersalne wyszukiwanie Levina”, a poprawne odniesienie to: L. Levin, problemy z wyliczaniem uniwersalnym. Problemy z przekazywaniem informacji, 9 (3): 265--266, 1973 (przetłumaczone z rosyjskiego). Jest to ten sam artykuł, w którym Levin wprowadził kompletność NP (patrz także Cook & Karp, ale o ile wiem, żaden z nich nie wprowadził pojęcia optymalnego uniwersalnego algorytmu wyszukiwania). Angielskie tłumaczenie można znaleźć w słynnej ankiecie Trakhtenbrota
Obliczalność z pewnością psuje większość uczniów. Piękny przykład z wysokim współczynnikiem zamieszania jest następujący:
f(n):=⎧⎩⎨1,π has 0n in its decimals0,else
Czy obliczalny?f
Odpowiedź brzmi tak; zobacz dyskusję tutaj . Większość ludzi natychmiast próbuje zbudować z obecną wiedzą. To nie może działać i prowadzi do postrzeganego paradoksu, który jest tak naprawdę tylko subtelnością.f
Wydaje mi się, że jest to jeden z tych problemów, w których cała jego podstępność polega na tym, jak zostało powiedziane. To trochę przypomina mi przyjęcie algorytmu, stwierdzenie, że n jest pewną stałą, i obwieszczenie, że algorytm działa teraz w stałym czasie. Trudnym pytaniem, które ludzie zwykle myślą, że zadajesz, jest to, czy możemy napisać program, który udowodni, że pi zawiera ciąg 0 ^ n dla wszystkich n, lub który określi największe n, dla których jest to prawda.
Jednym z zaskakujących i sprzecznych z intuicją wyników jest to, że , udowodniono za pomocą arytmetyki około 1990 r.IP=PSPACE
Jak to ujęli Arora i Barak (s. 157) „Wiemy, że sama interakcja nie daje nam żadnych języków poza NP. Podejrzewamy również, że sama randomizacja nie dodaje znaczącej mocy do obliczeń. Więc ile mocy mogłaby kombinacja randomizacji i zapewnić interakcję? ”
Jak powiedział Philip, twierdzenie Rice'a jest dobrym przykładem: intuicja przed badaniem obliczalności jest taka, że z pewnością musimy coś obliczyć w obliczeniach. Okazuje się, że możemy tylko obliczyć coś na temat niektórych obliczeń.
Co powiesz na publikacje Martina Escardo pokazujące, że istnieją nieskończone zbiory, które można wyczerpująco przeszukać w ograniczonym czasie? Zobacz post na blogu gościa Escardo na blogu Andreja Bauera, na przykład „Pozornie niemożliwe programy funkcjonalne” .
Twierdzenie o rekurencji z pewnością wydaje się sprzeczne z intuicją za pierwszym razem, gdy je widzisz. Zasadniczo mówi, że opisując Maszynę Turinga, możesz założyć, że ma ona dostęp do własnego opisu. Innymi słowy, mogę budować maszyny Turinga, takie jak:
TM M akceptuje n iff n jest wielokrotnością liczby pojawień się „1” w reprezentacji ciągu M.
TM N przyjmuje liczbę n i wysyła n kopii siebie.
Zauważ, że „reprezentacja ciągu” tutaj nie odnosi się do nieformalnego opisu tekstu, ale raczej do kodowania.
Udowodnienie wyników teorii informacji opartych na założeniach teorii złożoności to kolejny wynik sprzeczny z intuicją. Na przykład Bellare i in. w swoim artykule (Prawdziwa) złożoność wiedzy o zerowej statystyce konstruktywnie udowodniono, że zgodnie z założeniem certyfikowanego logarytmu dyskretnego każdy język, który przyjmuje rzetelną zerową wiedzę statystyczną, dopuszcza również wiedzę o zerowej statystyce.
Wynik był tak dziwny, że zaskoczył autorów. Wskazali ten fakt kilka razy; na przykład we wstępie:
Biorąc pod uwagę, że statystyczna wiedza zerowa jest pojęciem niezależnym obliczeniowo, jest nieco dziwne, że jej właściwości można udowodnić przy założeniu trudnej obliczeniowo.
Ponieważ powyższy wynik zawiera wiele kryptograficznego żargonu, staram się nieformalnie zdefiniować każdy termin.
pp−1
Zero wiedzy : protokół, który nie daje wiedzy stronom związanym z czasem wielomianowym.
Statystyczna wiedza zerowa: protokół, który nie dostarcza informacji, nawet podmiotom niepowiązanym obliczeniowo, z wyjątkiem mało prawdopodobnego prawdopodobieństwa.
Szczera weryfikacja zerowa wiedza: protokół, który nie daje wiedzy stronom związanym czasem wielomianowym, jeśli działają one zgodnie z protokołem.
Problem programowania liniowego można rozwiązać w (słabo) czasie wielomianowym. To wydaje się bardzo zaskakujące: dlaczego mielibyśmy znaleźć jeden spośród wykładniczej liczby wierzchołków wielowymiarowego polytopa? Dlaczego mielibyśmy rozwiązać problem, który jest tak absurdalnie ekspresyjny?
Nie wspominając już o wszystkich programach liniowych wielkości wykładniczej, które możemy rozwiązać za pomocą metody elipsoidy i wyroczni separacyjnych oraz innych metod (dodawanie zmiennych itp.). Na przykład zadziwiające jest to, że LP z wykładniczą liczbą zmiennych, takich jak relaksacja Karmakar-Karp z Pakowania bin, może być skutecznie przybliżone.
Fakt, że istnieje wykładnicza liczba rozwiązań, nie jest unikalny dla LP. Większość dyskretnych problemów z optymalizacją ma tę samą funkcję, ale ma algorytmy wielogodzinne, nie? LP jest szczególnym przypadkiem optymalizacji wypukłej, w której lokalne optimum jest globalnym optymalnym. Możemy również rozwiązać problem wypukłego modułu optymalizacji epsilon z powodu nieracjonalności i innych przyczyn technicznych. W przypadku LP, ze względu na strukturę kombinatoryczną, można przejść od tego małego rozwiązania błędu do wierzchołka, który daje dokładne rozwiązanie. Równoważność separacji i optymalizacji jest jednak zaskakująca.
@ChandraChekuri to, co miałem na myśli, to to, że problem z wyszukiwaniem geometrycznym w wysokich wymiarach wydaje się być trudny ... ale są też dobre powody, dla których tak nie jest (wypukłość). Powinienem raczej podkreślić równoważność separacji i optymalizacji. Mnóstwo zaskakujących konsekwencji, takich jak na przykład rozwiązywanie trudnych problemów optymalizacyjnych na idealnych wykresach.
Ilekroć uczę automatów, zawsze pytam moich uczniów, czy nie dziwi ich, że niedeterminizm nie dodaje żadnej mocy automatom skończonym (tj. Że dla każdego NFA istnieje odpowiednik - być może znacznie większy - DFA). Około połowa klasy jest zaskoczona, więc proszę bardzo. [Sam straciłem „wyczucie” tego, co zaskakuje na poziomie wstępu.]
Używamy plików cookie i innych technologii śledzenia w celu poprawy komfortu przeglądania naszej witryny, aby wyświetlać spersonalizowane treści i ukierunkowane reklamy, analizować ruch w naszej witrynie, i zrozumieć, skąd pochodzą nasi goście.
Kontynuując, wyrażasz zgodę na korzystanie z plików cookie i innych technologii śledzenia oraz potwierdzasz, że masz co najmniej 16 lat lub zgodę rodzica lub opiekuna.