Jakie są implikacje twierdzeń Gödla na temat badań AI?


13

Uwaga: Moje doświadczenie z twierdzeniem Gödla jest dość ograniczone: przeczytałem Gödela Eschera Bacha; przejrzał pierwszą połowę Wstępu do twierdzenia Godela (autor: Peter Smith); i jakieś losowe rzeczy tu i tam w Internecie. To znaczy, mam tylko niejasne zrozumienie teorii na wysokim poziomie.

Moim skromnym zdaniem twierdzenie Gödela o niekompletności (i wiele powiązanych z nim twierdzeń, takich jak problem Haltinga i twierdzenie Löbsa) należą do najważniejszych odkryć teoretycznych.

Jednak nieco rozczarowujące jest obserwowanie, że nie ma tak wielu (przynajmniej o mojej wiedzy) teoretycznych zastosowań twierdzeń, prawdopodobnie częściowo ze względu na 1. tępy charakter dowodu 2. silne filozoficzne implikacje, którymi ludzie nie są chętny do łatwego zobowiązania się.

Mimo to wciąż istnieją próby zastosowania twierdzeń w filozofii kontekstu umysł / sztuczna inteligencja. Z czubka mojej głowy:

Argument Lucas-Penrose : który dowodzi, że umysł nie jest zaimplementowany w systemie formalnym (jak w komputerze). (Jednak niezbyt rygorystyczny dowód)

Najwyraźniej niektóre badania w MIRI wykorzystują Löbs Thereom, choć jedynym znanym mi przykładem jest współpraca agentów Löbian.

Wszystkie są naprawdę fajne, ale czy jest jeszcze kilka przykładów? Zwłaszcza te, które są poważnie rozważane przez społeczność akademicką.

(por. Jakie są filozoficzne implikacje pierwszego twierdzenia Gödela o niekompletności? na SE)

Odpowiedzi:


6

Zdecydowanie istnieje wiele implikacji dla AI, w tym:

  1. Wnioskowanie za pomocą logiki pierwszego rzędu jest częściowo rozstrzygalne. Jest to duże rozczarowanie dla wszystkich ludzi, którzy chcieli używać logiki jako podstawowego narzędzia AI.

  2. Podstawowa równoważność dwóch instrukcji logicznych pierwszego rzędu jest nierozstrzygalna, co ma wpływ na systemy i bazy danych oparte na wiedzy. Na przykład optymalizacja zapytań do bazy danych jest z tego powodu nierozstrzygalnym problemem.

  3. Równoważność dwóch gramatyk bezkontekstowych jest nierozstrzygalna, co stanowi problem dla formalnego podejścia językowego do przetwarzania języka

  4. Podczas planowania w sztucznej inteligencji znalezienie wykonalnego planu jest nierozstrzygalne w przypadku niektórych języków planowania, które są potrzebne w praktyce.

  5. Kiedy wykonujemy automatyczne generowanie programu - mamy do czynienia z szeregiem rozstrzygających wyników, ponieważ każdy rozsądny język programowania jest tak potężny jak maszyna Turinga.

  6. Wreszcie wszystkie nietrywialne pytania dotyczące ekspresyjnego paradygmatu obliczeniowego, takie jak sieci Perti lub automaty komórkowe, są nierozstrzygalne.


Czy ktoś może podać źródło tego? Lub punkt palca w kierunku odpowiedniego tekstu.
kc sayz 'kc sayz'

1

Napisałem obszerny artykuł na ten temat około 20 lat temu, który został opublikowany w Engineering Applications of Artificial Intelligence 12 (1999) 655-659 . Jest dość techniczny i można go w całości przeczytać na mojej osobistej stronie internetowej, ale oto wniosek:

Powyżej pokazano, że istnieje nieskończenie wiele konstrukcji dowodowych na twierdzenie Gödela - w przeciwieństwie do jednego, który był używany do tej pory w dyskusjach na temat sztucznej inteligencji. Chociaż wszystkie ujawnione konstrukcje mogą być naśladowane przez komputer, oczywiste jest, że istnieją konstrukcje, które nie zostały jeszcze ujawnione. Nasza analiza wykazała, że ​​mogą istnieć konstrukcje, które może odkryć tylko człowiek. To małe i zdecydowanie „nie do udowodnienia”, które zależy od ograniczeń ludzkiej wyobraźni.

Dlatego ludzie argumentujący za matematyczną równoważnością ludzi i maszyn muszą ostatecznie polegać na swojej wierze w ograniczony umysł, co oznacza, że ​​ich wnioski są zawarte w ich założeniu. Z drugiej strony ludzie opowiadający się za wyższością ludzi muszą przyjąć tę wyższość w swoich matematycznych argumentach, ostatecznie wyciągając wniosek, który był już obecny w ich systemie rozumowania od samego początku.

Tak więc nie jest możliwe przedstawienie (meta) racjonalnych matematycznie argumentów dotyczących relacji między ludzkim umysłem a Maszyną Turinga bez przyjęcia założenia, że ​​ludzki umysł jest jednocześnie wnioskiem argumentu. Dlatego sprawa jest nierozstrzygalna.

Zastrzeżenie: Od tego czasu opuściłem akademię, więc nie znam współczesnego myślenia.


0

Znalazłem ten artykuł matematyka i filozofa Solomona Fefermana na wykładzie Gibbsa z 1951 r. Gödela na temat niektórych filozoficznych konsekwencji twierdzeń o niekompletności , czytając następujący artykuł w Wikipedii

Filozofia sztucznej inteligencji ,

którego streszczenie daje nam (zgodnie z oczekiwaniami) ogólne wyobrażenie o tym, co jest omówione w ten sam sposób:

Jest to krytyczna analiza pierwszej części wykładu Gibbsa z 1951 r. Gödela na temat niektórych filozoficznych konsekwencji twierdzeń o niekompletności.

Dyskusja Gödela jest sformułowana w kategoriach rozróżnienia między matematyką obiektywną i matematyką subiektywną , zgodnie z którą ta pierwsza składa się z prawd matematyki w sensie absolutnym, a druga z wszystkich prawd możliwych do udowodnienia przez człowieka.

Pytanie brzmi, czy się pokrywają; jeśli tak, to żaden formalny system aksjomatyczny (lub maszyna Turinga ) nie jest w stanie zrozumieć matematycznych możliwości ludzkiej myśli, a jeśli nie, istnieją absolutnie nierozwiązywalne problemy matematyczne postaci diofantyny.

Albo ... ludzki umysł ... nieskończenie przewyższa moce każdej skończonej maszyny, albo istnieją absolutnie nierozwiązywalne problemy diofantyczne.

które mogą zainteresować, przynajmniej filozoficznie, badaniami nad AI. Obawiam się, że ten artykuł może być podobny do artykułu, do którego się odnosisz, dotyczącego filozoficznych „prób” lub argumentów Lucasa i Penrose'a.

Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.