Nie należy zakładać, że rozwój AI był pierwotnie motywowany chęcią pomocy ludziom. Istnieje wiele wiarygodnych wyjaśnień równie trudnych do udowodnienia lub obalenia.
- Bądź znany z wymyślania futurystycznych pomysłów, zanim zrobi to ktokolwiek inny
- Zdobądź moc przed jakimś wyobrażonym wrogiem lub przyszłym potencjalnym
- Ponieważ może to być możliwe
- Dla zabawy
- Ponieważ Departament Obrony USA prawdopodobnie sfinansowałby go na czas nieokreślony
- To dobry krok w karierze
- Aby udowodnić, że w ludzkich mózgach nie ma nic szczególnie cudownego
- Zostaliśmy zatrudnieni i dostaliśmy trochę pieniędzy i wydawało się, że to dobry sposób na ich wydanie
- Zdecydowano się na to, ale nikt z nas tak naprawdę nie pamięta, dlaczego
W tym pytaniu są też źle zdefiniowane słowa opisowe, chociaż znalezienie lepszych słów, które mogłyby je zastąpić, może być trudne. Jak je sformalizujemy?
- Do ich najlepszych umiejętności (systemów inteligentnych) --- W jaki sposób ocenilibyśmy umiejętności i porównaliśmy z nimi wyniki? Mówimy uczniowi: „Nie aplikujesz się”, ale nie jest to obserwacja naukowa. Jest to nieco arbitralny osąd oparty na prognozie osiągnięć, która nie została spełniona zgodnie z systemem oceniania strony trzeciej i jego zastosowaniem przez inne omylne strony.
- Ostrożne podejmowanie decyzji --- Opieka oznacza cele, które same w sobie są obiektywne. Nie udokumentowaliśmy jeszcze zaawansowanej platformy komputerowej, która koduje system etyki zastosowany do abstrakcyjnej świadomości sytuacji, na przykład w przypadku etycznej istoty ludzkiej, dzięki której opieka nabiera jakiegokolwiek realistycznego znaczenia. To, że bramka NAND niezawodnie wykonuje funkcję NAND, czy udowodniono, że jakiś algorytm jest zgodny z danym rozmiarem zestawu danych w określonych warunkach, nie jest w pełni rozszerzonym znaczeniem tego, czym jesteśmy, kiedy jesteśmy ostrożni.
- Wyjaśnialne --- To również jest dwuznaczne. Z jednej strony konwergencja zestawu wartości parametrów podczas konwergencji sztucznej sieci jest wyjaśnieniem, ale poszczególne wartości nie są wyjaśnione. Przeciwnie, pełny raport z hipotezy, projektu eksperymentalnego, wyboru zestawu warunków, analizy, wyników i wniosków nadal nie jest wyczerpującym wyjaśnieniem. Taki raport może zawierać tylko poniżej 1% informacji opisujących zastosowanie ludzkiej inteligencji do badań opisanych w raporcie.
Wczesne prace nad sztucznymi sieciami zostały skrytykowane w czasopismach AI z początku lat 90. XX wieku za to, że nie można ich wyjaśnić na podstawie identyfikowalności. Systemy produkcyjne (oparte na regułach) pozostawiły ścieżki audytu reguł, które zostały zastosowane, oraz wyników wcześniejszych reguł, aby ktoś mógł złożyć pisemny dowód wyniku. Miało to ograniczoną przydatność.
Kiedy koła kierownicy zostaną zdjęte z pojazdów, a niektóre jurysdykcje zaczną wprowadzać przepisy dotyczące prowadzenia pojazdów przez ludzi w niektórych regionach, nie stanie się tak, ponieważ wypisano dowody bezpieczeństwa w milionach scenariuszy. Stanie się tak, ponieważ rozkłady zarejestrowanych przypadkowych zgonów, rozczłonkowania i zniszczenia mienia wynikające ze sterownika AI zainstalowanego w danym typie pojazdu, w wystarczająco przekonującym okresie, wskazują na jego bezpieczeństwo w stosunku do tych rozkładów dla kierowców-ludzi. W końcu w jakiejś sali sądowej lub klubie ustawodawczym ktoś powie to lub jego odpowiednik.
Jeśli nie zakazamy prowadzenia pojazdów przez ludzi w tych określonych warunkach dla omawianego regionu, skazujemy X liczbę mężczyzn, kobiet, dzieci oraz starszych pieszych i pasażerów rocznie na przedwczesną śmierć.
Zrozumienie mechanizmu działania i decyzji podejmowanych w konkretnych przypadkach jest użyteczne, ale dlaczego jest ono tak samo nieokreślone, jak AI stało się realnym obszarem pracy i nauki.
- Interesujące byłoby porównanie konkurencyjnych systemów AI w wymierny sposób.
- Zrozumienie wiedzy na temat inteligencji miałoby wielką wartość akademicką.
- Lepsze wyjaśnienie stanowi dobry artykuł.
- Pewnego dnia zacząłem rysować i znalazłem sposób na wyjaśnienie określonej klasy systemów, które wydawały się źle wyjaśnione.
Chociaż brak możliwości kontroli systemów sztucznej inteligencji może wynikać z wydarzeń legislacyjnych i sądowych, większość podejmowanych decyzji będzie zależeć od sposobu publikowania i postrzegania ocen statystycznych. Ci, którzy nalegają, aby systemy działały w sposób, który można wyjaśnić, będą prawdopodobnie, świadomie lub podświadomie, motywowani zainteresowaniem postrzeganiem, że dominacja ludzi jest oczywistym przeznaczeniem. Ironiczne jest to, że wielu z tych, którzy pomogli interesom USA i ZSRR podczas zimnej wojny, są teraz uważani za przywódców terrorystycznych przez następców obu frakcji zimnej wojny.
Powiązane i bardziej jednoznaczne pytanie brzmi, czy można oczekiwać, że inteligentny pomocnik pozostanie pomocnikiem na czas nieokreślony. Dochodzenie w sprawie zawsze inteligentnych i wiecznie pomocników jest w toku i jest niezwykle interesujące dla wszystkich, od autorów science fiction i scenarzystów po myślicieli wojskowych.