Nie , z ale . Możemy mieć kreatywne, ale etyczne rozwiązywanie problemów, jeśli system ma kompletny system etyki, ale w przeciwnym razie kreatywność będzie domyślnie niebezpieczna.
Podejścia decyzyjne AI można podzielić na dwa typy: myślicieli interpolacyjnych i myślicieli ekstrapolacyjnych.
Myśliciele interpolacyjni uczą się klasyfikować i naśladować to, czego się uczą, i nie próbują dawać rozsądnych wyników poza obszarem szkolenia. Możesz myśleć o nich jako o interpolacji między przykładami szkoleniowymi i czerpaniu korzyści ze wszystkich matematycznych gwarancji i zastrzeżeń, jak inne techniki statystyczne.
Ekstrapolacyjni myśliciele uczą się manipulować podstawowymi zasadami, co pozwala im łączyć te zasady w dotychczas nierozważny sposób. Istotnym polem dla intuicji jest tutaj optymalizacja numeryczna , której najprostszym i najbardziej znanym przykładem jest programowanie liniowe , a nie pola statystyczne, które zrodziły uczenie maszynowe. Możesz myśleć o nich jako o ekstrapolacji poza przykładami szkoleniowymi (w rzeczywistości wiele z nich nawet nie wymaga przykładów szkoleniowych lub używa tych przykładów do wnioskowania o podstawowych zasadach).
Obietnica myślicieli ekstrapolacyjnych polega na tym, że mogą oni opracować te „boczne” rozwiązania znacznie szybciej niż ludzie byliby w stanie to zrobić. Problem z tymi myślicielami ekstrapolacyjnymi polega na tym, że używają tylko zasad mówionych, a nie niewypowiedzianych, które mogłyby wydawać się zbyt oczywiste, aby o nich wspominać.
Zaletą rozwiązań problemów optymalizacyjnych jest to, że wektor cech jest często w pewien sposób „ekstremalny”. W programowaniu liniowym co najmniej jeden wierzchołek możliwej przestrzeni rozwiązania będzie optymalny, a zatem proste metody rozwiązania znajdują optymalny wierzchołek (co jest prawie niemożliwe z natury jako wierzchołek).
Jako kolejny przykład rozwiązanie minimalnego zużycia paliwa do przemieszczania statku kosmicznego z jednej pozycji do drugiej nazywa się „ bang-bang ”, w którym przyspieszasz statek tak szybko, jak to możliwe na początku i na końcu trajektorii, pędząc z maksymalną prędkością pomiędzy .
Chociaż zaletą jest prawidłowe zrozumienie systemu (bang-bang jest optymalny w wielu przypadkach), jest to katastrofalne, gdy system jest źle zrozumiany. Moim ulubionym przykładem jest problem dietetyczny Dantziga (dyskusja zaczyna się na stronie 5 pliku pdf), gdzie próbuje zoptymalizować swoją dietę za pomocą matematyki. Zgodnie ze swoim pierwszym zestawem ograniczeń powinien pić 500 litrów octu dziennie. Pod drugą sekundą 200 kostek bulionowych. Pod trzecim, dwa funty otrębów. Względy, które sprawiają, że te ewidentnie złe pomysły nie są wprowadzane do systemu, więc system niewinnie je sugeruje.
Jeśli potrafisz całkowicie zakodować wiedzę i wartości, których używa dana osoba do oceny tych planów w AI, to systemy ekstrapolacyjne są równie bezpieczne jak ta osoba. Będą w stanie rozważyć i odrzucić niewłaściwy rodzaj ekstremalnych planów i pozostawić ci właściwy rodzaj ekstremalnych planów.
Ale jeśli nie możesz, sensownie jest nie budować ekstrapolatywnego decydenta, a zamiast tego zbudować interpolatywnego. To znaczy, zamiast zadawać sobie pytanie „jak najlepiej osiągnąć cel X?” zadaje sobie pytanie „co by zrobił człowiek w tej sytuacji?”. To ostatnie może być znacznie gorsze w osiągnięciu celu X, ale ma znacznie mniejsze ryzyko poświęcenia innych celów w celu osiągnięcia X.