Jakie ewentualne ograniczenia nakłada problem zatrzymania na sztuczną inteligencję?


Odpowiedzi:


9

Czy problem zatrzymania wiąże się z ograniczeniem poznania człowieka?

Tak, absolutnie - że istnieją fragmenty kodu, na które człowiek może spojrzeć i nie ma pewności, czy zatrzyma się w określonym czasie. (Z pewnością istnieją fragmenty kodu, na które człowiek może spojrzeć i powiedzieć zdecydowanie „tak” lub „nie”, ale mówimy o tych, które w rzeczywistości są dość trudne do analizy.)

Problem zatrzymania oznacza, że ​​istnieją typy analizy kodu, których żaden komputer nie mógłby wykonać, ponieważ jest to matematycznie niemożliwe. Ale sfera możliwości jest wciąż wystarczająco duża, aby umożliwić silną sztuczną inteligencję (w sensie kodu, który może zrozumieć siebie wystarczająco dobrze, aby się poprawić).


Problem zatrzymania oznacza, że ​​żadna pojedyncza (skończona) metoda nie może zdecydować, czy jakiś program zatrzyma się w skończonym czasie. To nie znaczy, że są problemy, które nie mogą być rozwiązane (co oczywiście istnieje, ale przyczyny są zazwyczaj różne)
kakaz

12

Problem zatrzymania jest przykładem ogólnego zjawiska znanego jako Nierozstrzygalność , które pokazuje, że istnieją problemy, których żadna maszyna Turinga nie może rozwiązać w określonym czasie. Rozważmy uogólnienie, że nie można rozstrzygnąć, czy Maszyna Turinga spełnia pewną nietrywialną właściwość P, zwaną twierdzeniem Rice'a .

Po pierwsze zauważ, że problem zatrzymania ma zastosowanie tylko wtedy, gdy maszyna Turinga pobiera dowolnie długie dane. Jeśli dane wejściowe są ograniczone, możliwe jest wyliczenie wszystkich możliwych przypadków, a problem nie jest już nierozstrzygalny. Obliczanie tego może być nadal nieefektywne, ale przechodzimy do teorii złożoności, która powinna być osobnym pytaniem.

Twierdzenie Rice'a sugeruje, że inteligencja (człowiek) nie jest w stanie określić, czy inna inteligencja (taka jak AGI) posiada pewną właściwość, na przykład bycie przyjazną . Nie oznacza to, że nie możemy zaprojektować przyjaznego AGI, ale oznacza, że ​​nie możemy sprawdzić, czy arbitralny AGI jest przyjazny. Tak więc, chociaż możemy stworzyć sztuczną inteligencję, która z pewnością będzie przyjazna, musimy również upewnić się, że dział IT nie będzie w stanie stworzyć innej sztucznej inteligencji, która jest nieprzyjazna.


Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.