To możliwy efekt uboczny
Każdy zorientowany na cel agent może po prostu robić rzeczy, które osiągają swoje cele, ignorując skutki uboczne, które nie mają znaczenia dla tych celów.
Jeśli moje cele obejmują uporządkowaną przestrzeń życiową, mogę przekształcić swoje podwórko w ładny, płaski trawnik lub chodnik, jednocześnie niszcząc złożony ekosystem życia, który był tam wcześniej, ponieważ nie dbam o to szczególnie.
Jeśli cele konkretnej potężnej sztucznej inteligencji obejmują robienie czegokolwiek na dużą skalę i w jakiś sposób nie przejmują się szczególnie obecnym złożonym ekosystemem, wówczas ekosystem ten może zostać zniszczony. Nie musi chcieć nas usuwać. Jeśli po prostu nie jesteśmy adekwatni do jego celów, jesteśmy stworzeni z materiałów i zajmujemy przestrzeń, którą mógłby chcieć wykorzystać na coś innego.
Jesteśmy zagrożeniem dla większości celów
Każdy zorientowany na cel agent może chcieć upewnić się, że może osiągnąć swoje cele. Każdy inteligentny agent będzie próbował przewidzieć działania innych agentów, które mogą uniemożliwić im osiągnięcie tych celów, i podejmie kroki, aby zapewnić ich sukces. W wielu przypadkach łatwiej jest wyeliminować tych innych agentów niż zapewnić, że ich wysiłki się nie powiodą.
Na przykład moje cele mogą polegać na przechowywaniu torebki cukru w wiejskim domu, dzięki czemu mogę robić naleśniki podczas wizyty bez przynoszenia wszystkich składników za każdym razem. Jeśli jednak zostawię go tam, szczury prawdopodobnie zjedzą je zimą. Mogę podjąć wszelkie środki ostrożności, aby lepiej go przechowywać, ale szczury są sprytne i podstępne, i oczywiście istnieje niemała szansa, że i tak uda im się osiągnąć swój cel, więc skutecznym dodatkowym środkiem ostrożności jest zabicie szczurów, zanim zdobędą szansę. próbować.
Jeśli celem konkretnej potężnej AI jest zrobienie X; może dojść do zrozumienia, że (niektórzy?) ludzie mogą nie chcieć X, ale Y zamiast tego. Można również łatwo wywnioskować, że niektórzy z tych ludzi mogą aktywnie robić rzeczy, które zapobiegają X i / lub próbują wyłączyć AI. Robienie rzeczy, które zapewniają osiągnięcie celu, jest prawie tym, co robi agent dążący do celu; w tym przypadku, jeśli istnienie ludzi nie jest absolutnie konieczne dla celu X, wyeliminowanie ich staje się solidną strategią redukcji ryzyka. Nie jest to absolutnie konieczne i może również podejmować wszelkiego rodzaju inne środki ostrożności, ale tak jak w moim przykładzie szczurów, ludzie są sprytni i przebiegli, a poza tym istnieje wyraźna nietrywialna szansa, że uda im się osiągnąć swoje cele (aby X nie zdarzyło się tak, jak zamierza sztuczna inteligencja), więc skutecznym dodatkowym środkiem ostrożności może być ich zabicie, zanim będą mieli szansę spróbować.