Czy prawa Asimova mają wadę projektową, czy są wykonalne w praktyce?


19

Słynne Trzy prawa robotyki Izaaka Asimova powstały w kontekście opowiadań science fiction Asimova. W tych opowieściach trzy prawa służą jako środek bezpieczeństwa, aby uniknąć wybuchu spustoszenia w przedwczesnych lub zmanipulowanych sytuacjach.

Częściej niż nie, narracje Asimova znajdowały sposób na ich złamanie, prowadząc pisarza do wprowadzenia kilku zmian w samych prawach. Na przykład w niektórych swoich opowieściach zmodyfikował Pierwsze Prawo , dodał Czwarte (lub Zeroth) Prawo , a nawet całkowicie je usunął .

Łatwo jednak argumentować, że w kulturze popularnej, a nawet w samych badaniach nad sztuczną inteligencją, prawa robotyki są traktowane dość poważnie. Ignorując boczny problem różnych, subiektywnych i wzajemnie wykluczających się interpretacji praw, czy istnieją jakieś argumenty świadczące o tym, że same prawa są wewnętrznie wadliwe ze względu na ich konstrukcję, czy też są wystarczająco silne, aby można je było zastosować w rzeczywistości? Podobnie, czy w tym celu zaprojektowano lepszą, bardziej rygorystyczną heurystykę bezpieczeństwa?


Uważaj na Piekło Killbota! xkcd.com/1613
NietzscheanAI

Nie możemy zapomnieć o tej możliwości: xkcd.com/1450
dynrepsys,

Prawa Asimova to tylko niewielka próba rozpoczęcia dyskusji. Aby uzyskać o wiele bardziej szczegółową dyskusję, przeczytaj artykuł „Superinteligence” Nicka Bostrom - jest to tak wyczerpujące, jak tylko się opiera na obecnej wiedzy i zrozumieniu.
Florin Andrei

Odpowiedzi:


12

Prawa Asimova nie są wystarczająco silne, aby można je było zastosować w praktyce. Siła nie jest nawet brana pod uwagę, biorąc pod uwagę, że ponieważ są one pisane po angielsku, najpierw trzeba by je interpretować subiektywnie, aby mieć jakiekolwiek znaczenie. Dobra dyskusja na ten temat znajduje się tutaj .

Aby zapisać fragment:

Jak definiujesz te rzeczy? Jak definiujesz „człowieka” bez konieczności zajmowania stanowiska w prawie każdej sprawie. A jeśli „człowiek” nie był wystarczająco trudny, musisz zdefiniować „szkoda” i znów masz ten sam problem. Niemal każda naprawdę solidna, jednoznaczna definicja podana dla tych słów - która nie opiera się na ludzkiej intuicji - powoduje dziwne dziwactwa filozoficzne, prowadzące do tego, że twoja sztuczna inteligencja robi coś, czego tak naprawdę nie chcesz.

Łatwo można sobie wyobrazić, że Asimov był wystarczająco sprytny, aby to wiedzieć i bardziej interesował go pisanie historii niż projektowanie protokołów sterowania AI w świecie rzeczywistym.

W powieści Neuromancer zasugerowano, że sztuczna inteligencja może służyć jako wzajemna kontrola. Nadchodząca Osobliwość Raya Kurzweila , lub inaczej hiperinteligentne AGI, mogą w ogóle nie pozostawić wielu możliwości kontrolowania AI, pozostawiając jedynie regulację rówieśniczą jako jedyną możliwą możliwość.

Warto zauważyć, że Eliezer Yudkowsky i inni przeprowadzili eksperyment, w którym Yudkowsky grał rolę superinteligentnej sztucznej inteligencji z umiejętnością mówienia, ale bez żadnego innego połączenia poza zamkniętym pudełkiem. Pretendenci mieli za zadanie po prostu trzymać AI w pudełku za wszelką cenę. Yudkowsky uciekł za każdym razem.


Czy wiesz, czy kiedykolwiek wydano transkrypcję eksperymentów Yudkowsky'ego? Podany przez Ciebie link (i wymiana e-maili, do których następnie prowadzą) nie wydaje się, aby go udostępniał.
NietzscheanAI,

@ user217281728 Nie, szukałem go, ale wygląda na to, że trzyma go, tzn. jego strategia jest w tajemnicy, aby zachować możliwość powtórzenia tego. Mam kilka pomysłów na temat tego, co powiedział i dlaczego tak myślę, że chętnie się z tobą podzielę, jeśli mnie DM.
dynrepsys,

Zrobiłem to teraz.
NietzscheanAI

Jestem pod wrażeniem, że Asimov był wystarczająco inteligentny, aby wiedzieć, ale punktem było to, że proste reguły nie działają. Wskazanie negatywnych przykładów („nie można po prostu powiedzieć, żeby nie szkodziło ludziom, to nie zadziała”) jest użyteczne samo w sobie w praktyce w zakresie kontroli AI.
Matthew Graves,

2

Asimov uczynił te trzy prawa konkretnie, aby udowodnić, że żadne trzy prawa nie są wystarczające, bez względu na to, jak początkowo wydają się rozsądne. Znam faceta, który go znał, a on to potwierdził.


2
„Znam faceta, który go znał”… Nie masz nieco bardziej wiarygodnego źródła? Nie wątpię w twoją odpowiedź, ale z pewnością powinien już istnieć odpowiedni cytat w tej sprawie.
3442

Nazywał się Ben Williams. To jest post Google Plus, w którym opisał swoje opinie na temat Asimova i trzech praw: plus.google.com/+JohnNewmanIII/posts/HeTnPdhaY9p
Doxosophoi

0

Rozważ pierwszą zasadę robotyki Asimova:

Robot nie może zranić człowieka ani, poprzez bezczynność, pozwolić, by człowiek wyrządził mu krzywdę.

To prawo jest już problematyczne, biorąc pod uwagę samochody samojezdne.

O co tu chodzi, pytasz? Prawdopodobnie znasz klasyczny eksperyment myślowy z zakresu etyki, znany jako problem z wózkiem . Ogólna postać problemu jest następująca:

Wózek zmierza prosto w ich stronę. Stoisz w pewnej odległości na placu kolejowym, obok dźwigni. Jeśli pociągniesz tę dźwignię, wózek przełączy się na inny zestaw gąsienic. Zauważysz jednak, że na bocznym torze jest jedna osoba. Masz dwie możliwości: (1) Nic nie rób, a wózek zabija pięć osób na głównym torze. (2) Pociągnij dźwignię, kierując wózek na boczny tor, gdzie zabije jedną osobę. Który jest właściwy wybór?

źródło: Wikipedia

Samochody samojezdne będą musiały wprowadzić rzeczywiste wariacje dotyczące problemu wózka, co w zasadzie oznacza, że samochody samobieżne muszą być zaprogramowane do zabijania ludzi .

Oczywiście nie oznacza to, że WSZYSTKIE roboty będą musiały zostać zaprogramowane do zabijania, ale samochody samobieżne są dobrym przykładem robota, który to zrobi.

Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.