Czy mogą istnieć egzystencjalne zagrożenia dla ludzkości z powodu AI?


9

Prowadzimy badania, spędzając godziny, zastanawiając się, w jaki sposób możemy ulepszyć prawdziwe oprogramowanie AI (inteligentni agenci). Staramy się również wdrażać niektóre aplikacje, np. W biznesie, służbie zdrowia i edukacji, wykorzystując technologię AI.

Niemniej jednak do tej pory większość z nas ignorowała „ciemną” stronę sztucznej inteligencji. Na przykład „nieetyczna” osoba mogłaby kupić tysiące tanich dronów, uzbroić je w broń i wysłać do strzelania do ogółu. Byłoby to „nieetyczne” zastosowanie sztucznej inteligencji.

Czy mogą istnieć (w przyszłości) egzystencjalne zagrożenia dla ludzkości z powodu AI?


Każda technologia może potencjalnie stanowić egzystencjalne zagrożenie dla ludzkości.
Ankur

Odpowiedzi:


2

Zdefiniowałbym inteligencję jako zdolność do przewidywania przyszłości. Więc jeśli ktoś jest inteligentny, może przewidzieć pewne aspekty przyszłości i zdecydować, co robić na podstawie swoich przewidywań. Jeśli więc „inteligentna” osoba zdecyduje się skrzywdzić inne osoby, może być w tym bardzo skuteczna (na przykład Hitler i jego personel).

Sztuczna inteligencja może być niezwykle skuteczna w przewidywaniu niektórych aspektów niepewnej przyszłości. I to IMHO prowadzi do dwóch negatywnych scenariuszy:

  1. Ktoś programuje to, by ranić ludzi. Przez pomyłkę lub celowo.
  2. Sztuczna inteligencja zostanie zaprojektowana do robienia czegoś bezpiecznego, ale w pewnym momencie, aby być bardziej skutecznym, przeprojektuje się i być może usunie przeszkody na swojej drodze. Jeśli więc ludzie staną się przeszkodami, zostaną usunięci bardzo szybko i bardzo skutecznie.

Oczywiście są też pozytywne scenariusze, ale nie pytasz o nie.

Polecam przeczytanie tego fajnego postu o sztucznej superinteligencji i możliwych skutkach jej stworzenia: http://waitbutwhy.com/2015/01/artificial-intelligence-revolution-1.html


Dziękuję za odpowiedź. Bardzo zainteresowany tym drugim punktem. Pozytywna strona, w pierwszym akapicie jest trafienie, mam nadzieję, że zobaczysz.
kwintumnia

4

Nie ma wątpliwości, że sztuczna inteligencja może stanowić egzystencjalne zagrożenie dla ludzkości.

Największe zagrożenie dla ludzkości leży w nadinteligentnej sztucznej inteligencji.

Sztuczna inteligencja, która przewyższa ludzką inteligencję, będzie zdolna do gwałtownego wzrostu własnej inteligencji, w wyniku czego system AI, który dla ludzi będzie całkowicie nie do powstrzymania.

Na tym etapie, jeśli system sztucznej inteligencji zdecyduje, że ludzkość nie jest już użyteczna, może zetrzeć nas z powierzchni ziemi.

Jak Eliezer Yudkowsky określa to w Sztucznej Inteligencji jako czynnik pozytywny i negatywny w globalnym ryzyku ,

„Sztuczna inteligencja cię nie nienawidzi ani nie kocha, ale jesteś zbudowana z atomów, które może wykorzystać do czegoś innego”.

Innym zagrożeniem są instrukcje wysoce inteligentnej AI

Warto rozważyć eksperyment myślowy maksymalizatora spinacza do papieru.

Wysoce inteligentna sztuczna inteligencja poinstruowana, by zmaksymalizować produkcję spinaczy, może podjąć następujące kroki, aby osiągnąć swój cel.

1) Dokonaj eksplozji inteligencji, aby stać się superinteligentnym (zwiększy to efektywność optymalizacji spinacza)

2) Zlikwiduj ludzkość, aby nie można jej było wyłączyć (co zminimalizuje produkcję i będzie nieefektywne)

3) Użyj zasobów Ziemi (w tym samej planety), aby zbudować samoreplikujące się roboty obsługujące AI

4) Gwałtownie rozprzestrzenia się po wszechświecie, zbierając planety i gwiazdy, zamieniając je w materiały do ​​budowy fabryk spinaczy do papieru

Najwyraźniej nie tego chciał człowiek, który produkował spinacze biznesowe, ale jest to najlepszy sposób na wykonanie instrukcji AI.

To pokazuje, jak superinteligentne i wysoce inteligentne systemy AI mogą być największym ryzykiem egzystencjalnym, jakie ludzkość może kiedykolwiek spotkać.

Murray Shanahan w The Technological Singularity nawet zaproponował, że AI może być rozwiązaniem paradoksu Fermiego: powodem, dla którego nie widzimy inteligentnego życia we wszechświecie, jest to, że gdy cywilizacja stanie się wystarczająco zaawansowana, rozwinie AI, która ostatecznie zniszczy to. Jest to znane jako idea filtra kosmicznego .

Podsumowując, sama inteligencja, dzięki której sztuczna inteligencja jest tak przydatna, czyni ją wyjątkowo niebezpieczną.

Wpływowe postacie, takie jak Elon Musk i Stephen Hawking, wyraziły obawy, że nadinteligentna sztuczna inteligencja jest największym zagrożeniem, z jakim kiedykolwiek będziemy musieli się zmierzyć.

Mam nadzieję, że odpowie na twoje pytanie :)

Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.