Nie ma wątpliwości, że sztuczna inteligencja może stanowić egzystencjalne zagrożenie dla ludzkości.
Największe zagrożenie dla ludzkości leży w nadinteligentnej sztucznej inteligencji.
Sztuczna inteligencja, która przewyższa ludzką inteligencję, będzie zdolna do gwałtownego wzrostu własnej inteligencji, w wyniku czego system AI, który dla ludzi będzie całkowicie nie do powstrzymania.
Na tym etapie, jeśli system sztucznej inteligencji zdecyduje, że ludzkość nie jest już użyteczna, może zetrzeć nas z powierzchni ziemi.
Jak Eliezer Yudkowsky określa to w Sztucznej Inteligencji jako czynnik pozytywny i negatywny w globalnym ryzyku ,
„Sztuczna inteligencja cię nie nienawidzi ani nie kocha, ale jesteś zbudowana z atomów, które może wykorzystać do czegoś innego”.
Innym zagrożeniem są instrukcje wysoce inteligentnej AI
Warto rozważyć eksperyment myślowy maksymalizatora spinacza do papieru.
Wysoce inteligentna sztuczna inteligencja poinstruowana, by zmaksymalizować produkcję spinaczy, może podjąć następujące kroki, aby osiągnąć swój cel.
1) Dokonaj eksplozji inteligencji, aby stać się superinteligentnym (zwiększy to efektywność optymalizacji spinacza)
2) Zlikwiduj ludzkość, aby nie można jej było wyłączyć (co zminimalizuje produkcję i będzie nieefektywne)
3) Użyj zasobów Ziemi (w tym samej planety), aby zbudować samoreplikujące się roboty obsługujące AI
4) Gwałtownie rozprzestrzenia się po wszechświecie, zbierając planety i gwiazdy, zamieniając je w materiały do budowy fabryk spinaczy do papieru
Najwyraźniej nie tego chciał człowiek, który produkował spinacze biznesowe, ale jest to najlepszy sposób na wykonanie instrukcji AI.
To pokazuje, jak superinteligentne i wysoce inteligentne systemy AI mogą być największym ryzykiem egzystencjalnym, jakie ludzkość może kiedykolwiek spotkać.
Murray Shanahan w The Technological Singularity nawet zaproponował, że AI może być rozwiązaniem paradoksu Fermiego: powodem, dla którego nie widzimy inteligentnego życia we wszechświecie, jest to, że gdy cywilizacja stanie się wystarczająco zaawansowana, rozwinie AI, która ostatecznie zniszczy to. Jest to znane jako idea filtra kosmicznego .
Podsumowując, sama inteligencja, dzięki której sztuczna inteligencja jest tak przydatna, czyni ją wyjątkowo niebezpieczną.
Wpływowe postacie, takie jak Elon Musk i Stephen Hawking, wyraziły obawy, że nadinteligentna sztuczna inteligencja jest największym zagrożeniem, z jakim kiedykolwiek będziemy musieli się zmierzyć.
Mam nadzieję, że odpowie na twoje pytanie :)