Czy sztuczna inteligencja może myśleć bocznie, unikając wyborów „nieoptymalnych etycznie”?


13

W najnowszej grze komputerowej The Turing Test AI („TOM”) potrzebuje pomocy Ava, aby przejść przez niektóre pokoje układanek. TOM mówi, że nie jest w stanie rozwiązać zagadek, ponieważ nie wolno mu „ myśleć bocznie ”. Mówi w szczególności, że nie pomyślałby, aby rzucić pudełko przez okno, aby rozwiązać pierwszy pokój. Jego twórcy, jak głosi historia, wyłączyli tę umiejętność, ponieważ takie myślenie mogłoby stworzyć „etycznie nieoptymalne” rozwiązania, takie jak odcięcie ręki i pozostawienie jej na płycie naciskowej.

Czy wszystkie kreatywne umiejętności rozwiązywania łamigłówek musiałyby zostać usunięte z AI, aby utrzymać rozsądne wyniki, czy też moglibyśmy czerpać korzyści z myślenia lateralnego bez utraty ramienia?

Odpowiedzi:


17

Nie , z ale . Możemy mieć kreatywne, ale etyczne rozwiązywanie problemów, jeśli system ma kompletny system etyki, ale w przeciwnym razie kreatywność będzie domyślnie niebezpieczna.

Podejścia decyzyjne AI można podzielić na dwa typy: myślicieli interpolacyjnych i myślicieli ekstrapolacyjnych.

Myśliciele interpolacyjni uczą się klasyfikować i naśladować to, czego się uczą, i nie próbują dawać rozsądnych wyników poza obszarem szkolenia. Możesz myśleć o nich jako o interpolacji między przykładami szkoleniowymi i czerpaniu korzyści ze wszystkich matematycznych gwarancji i zastrzeżeń, jak inne techniki statystyczne.

Ekstrapolacyjni myśliciele uczą się manipulować podstawowymi zasadami, co pozwala im łączyć te zasady w dotychczas nierozważny sposób. Istotnym polem dla intuicji jest tutaj optymalizacja numeryczna , której najprostszym i najbardziej znanym przykładem jest programowanie liniowe , a nie pola statystyczne, które zrodziły uczenie maszynowe. Możesz myśleć o nich jako o ekstrapolacji poza przykładami szkoleniowymi (w rzeczywistości wiele z nich nawet nie wymaga przykładów szkoleniowych lub używa tych przykładów do wnioskowania o podstawowych zasadach).

Obietnica myślicieli ekstrapolacyjnych polega na tym, że mogą oni opracować te „boczne” rozwiązania znacznie szybciej niż ludzie byliby w stanie to zrobić. Problem z tymi myślicielami ekstrapolacyjnymi polega na tym, że używają tylko zasad mówionych, a nie niewypowiedzianych, które mogłyby wydawać się zbyt oczywiste, aby o nich wspominać.

Zaletą rozwiązań problemów optymalizacyjnych jest to, że wektor cech jest często w pewien sposób „ekstremalny”. W programowaniu liniowym co najmniej jeden wierzchołek możliwej przestrzeni rozwiązania będzie optymalny, a zatem proste metody rozwiązania znajdują optymalny wierzchołek (co jest prawie niemożliwe z natury jako wierzchołek).

Jako kolejny przykład rozwiązanie minimalnego zużycia paliwa do przemieszczania statku kosmicznego z jednej pozycji do drugiej nazywa się „ bang-bang ”, w którym przyspieszasz statek tak szybko, jak to możliwe na początku i na końcu trajektorii, pędząc z maksymalną prędkością pomiędzy .

Chociaż zaletą jest prawidłowe zrozumienie systemu (bang-bang jest optymalny w wielu przypadkach), jest to katastrofalne, gdy system jest źle zrozumiany. Moim ulubionym przykładem jest problem dietetyczny Dantziga (dyskusja zaczyna się na stronie 5 pliku pdf), gdzie próbuje zoptymalizować swoją dietę za pomocą matematyki. Zgodnie ze swoim pierwszym zestawem ograniczeń powinien pić 500 litrów octu dziennie. Pod drugą sekundą 200 kostek bulionowych. Pod trzecim, dwa funty otrębów. Względy, które sprawiają, że te ewidentnie złe pomysły nie są wprowadzane do systemu, więc system niewinnie je sugeruje.

Jeśli potrafisz całkowicie zakodować wiedzę i wartości, których używa dana osoba do oceny tych planów w AI, to systemy ekstrapolacyjne są równie bezpieczne jak ta osoba. Będą w stanie rozważyć i odrzucić niewłaściwy rodzaj ekstremalnych planów i pozostawić ci właściwy rodzaj ekstremalnych planów.

Ale jeśli nie możesz, sensownie jest nie budować ekstrapolatywnego decydenta, a zamiast tego zbudować interpolatywnego. To znaczy, zamiast zadawać sobie pytanie „jak najlepiej osiągnąć cel X?” zadaje sobie pytanie „co by zrobił człowiek w tej sytuacji?”. To ostatnie może być znacznie gorsze w osiągnięciu celu X, ale ma znacznie mniejsze ryzyko poświęcenia innych celów w celu osiągnięcia X.


2

Etyka obejmuje relacje potrzeb między dwiema lub więcej stronami. Jak powiedział Matthew Graves, jeśli AI nie ma wystarczającego ludzkiego kontekstu (zrozumienia potrzeb), spowoduje pozornie przewrotne etyczne zachowanie.

I bądźmy szczerzy, niektórzy ludzie odcinaliby sobie ręce innych i kładli je na talerzach dociskowych. Nawet najlepsi z nas nie będą w stanie sympatyzować z potrzebami innych ze 100% dokładnością - w najlepszym razie zgadujemy. A potem zdarzają się te rzadkie sytuacje, w których naprawdę chcę, abyś odciął mi ramię i położył je na płycie dociskowej, być może w celu uratowania ukochanej osoby.

Jeśli moglibyśmy stworzyć rzecz, która mogłaby współczuć z tym, czego człowiek mógłby potrzebować w dowolnej arbitralnej sytuacji, wówczas stworzylibyśmy albo A) sztuczną ludzką inteligencję (AHI) (która mogłaby być mniej lub bardziej zawodna, jak człowiek), lub B) wyrocznia, która może rozumować wszystkie możliwe ludzkie potrzeby znacznie szybciej niż ludzka skala czasu - w takim przypadku nie potrzebujesz świadomej sztucznej inteligencji, ponieważ wszystkie ludzkie potrzeby i rozwiązania można wstępnie obliczyć na podstawie formalnej specyfikacji, która jest prawdopodobnie absurdalne do rozważenia.


0

Możesz również rozważyć programowanie jako etyczną część projektu. AI będzie działać w oparciu o to, co zostało jej pouczone jako etycznie ważne lub nie. Może / powinien nawet być częścią parametrów, które kształtują proces poszukiwania rozwiązań, co może pozwolić na bardziej wyrafinowane i kreatywne rozwiązanie.

Rozumiemy podstawy etyki w normalnych okolicznościach, ale jeśli nie jesteśmy w stanie przewidzieć, jak zachowa się jakikolwiek człowiek w etycznej zagadce, możemy egzekwować to, czego nie zrobiłaby sztuczna inteligencja.

Tak długo, jak mamy kontrolę nad mechanizmem napędzającym sztuczną inteligencję, z pewnością jesteśmy odpowiedzialni za wprowadzanie etycznych niepowodzeń. Problem tkwi w samouczącej się sztucznej inteligencji ze zdolnością do nadpisywania dyrektyw. (Przepisy CF Asimov.)

W tym przypadku sposób, w jaki sztuczna inteligencja jest kreatywna, wydaje się nieistotny.


-1

Wiele z tego zależy od zakresu rozważań. Na przykład, jakie byłyby średnio- i długoterminowe skutki myślenia bocznego? Robot mógłby odciąć ramię dla płyty dociskowej, ale oznaczałoby to, że dana osoba nie miała już ramienia, co najwyżej ograniczenie funkcjonalne, że mogła wykrwawić się i umrzeć / być poważnie ograniczona, oraz że osoba (i ludzie w ogólnie) nie będzie już współpracować i prawdopodobnie będzie dążył do wyeliminowania robota. Ludzie mogą myśleć na później, ponieważ rozważają te rzeczy - etyka jest tak naprawdę niczym więcej niż zbiorem wytycznych, które obejmują te rozważania. Robot mógłby również, gdyby został zaprojektowany z uwzględnieniem tych efektów zewnętrznych.

Jeśli wszystko inne zawiedzie,

Prawa Robotyki Asimova: (0. Robot nie może wyrządzić krzywdy ludzkości, lub przez bezczynność pozwolić ludzkości na krzywdę.) 1. Robot nie może zranić istoty ludzkiej lub, przez bezczynność, pozwolić człowiekowi przyjść zaszkodzić. 2. Robot musi być posłuszny rozkazom wydawanym przez ludzi, z wyjątkiem przypadków, gdy rozkazy takie byłyby sprzeczne z Pierwszym Prawem. 3. Robot musi chronić swoje istnienie, o ile taka ochrona nie jest sprzeczna z Pierwszym lub Drugim Prawem

Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.