Co jest złego w tym, że sztuczna inteligencja będzie zdolna do wszechwiedzy?


10

W kontekście sztucznej inteligencji osobliwość odnosi się do pojawienia się sztucznej inteligencji ogólnej zdolnej do rekurencyjnego samodoskonalenia, prowadzącej do szybkiego pojawienia się sztucznej superinteligencji (ASI), której granice są nieznane, wkrótce po osiągnięciu osobliwości technologicznej . Dlatego te superinteligencje byłyby w stanie rozwiązać problemy, których być może nie bylibyśmy w stanie rozwiązać.

Według sondażu zgłoszonego w Przyszłe postępy w sztucznej inteligencji: badanie opinii ekspertów (2014)

Mediana szacunków respondentów była dla jednej na dwie szanse, że inteligencja maszyn na wysokim poziomie zostanie opracowana około 2040-2050

co nie jest bardzo daleko.

Co jest złego w tym, że sztuczna inteligencja będzie zdolna do wszechwiedzy, skoro może rozwiązać problem wielu problemów?

Odpowiedzi:


8

Bardzo podoba mi się twój pogląd i bez wnikania w szczegóły, w jaki sposób można osiągnąć „osobliwość”, o której mowa w wielu innych pytaniach, lub w jaki sposób świadomość i „wszechwiedza” wchodzą w grę, ponieważ świadomość i wszechwiedza nie są wymaganiami , ja to zrobię skieruj cię do dwóch kluczowych filozofów:

Więc kiedy ludzie oszaleją, koncentrując się na mitach „ Skynet ”, pod którymi powstają maszyny, aby nas zniszczyć, muszę się zastanawiać, czy nie są tak inteligentni jak Nash, czy tak głęboki jak Dick, co może tłumaczyć brak nacisku na co można nazwać paradygmatem „ Electric Sheep ”.


1
Całkowicie się z tobą zgadzam. Czasami pytam, co prowadzi nas do tworzenia nowych technologii. Czy chcemy władzy absolutnej, czy faktycznie rozwiązujemy nasze prawdziwe problemy? Dlatego wolę patrzeć przez pryzmat miłości. Niektórzy mogą uważać to za frazes, ale tak sądzę.
Karl Zillner,

@KarlZillner Kontynuując mitologiczny front, w Stross ' Accellerando , wprowadza koncepcję „Economics 2.0 *, zdefiniowaną jako systemy, w których nawet wzmocnieni ludzie nie mogą już konkurować z czystymi algorytmami i wydaje się to zupełnie bezcelowe. zaproponować dwie główne ścieżki - częściowo partyzanckie, kooperacyjne AI kontra hiperpartyjne AI (które są mniej inteligentnymi kuzynami, aczkolwiek z wysoce zoptymalizowanymi funkcjami akwizycji na niskim poziomie, które pozwalają im przytłoczyć i kooptować infrastrukturę twórcy. )
DukeZhou

0

Pytanie jest dobre i dla wielu ludzi. Istnieje kilka nieporozumień w linii myślenia do rozważenia.

  • Przewaga inteligentnych istot innych niż ludzie zagraża cywilizacji - czy wyobrażenie sobie tego zagrożenia jest logiczne? Czy jest to racjonalny wniosek, gdy inteligencja ludzka jest obecnie najbardziej zagrażającym zjawiskiem biologicznym w biosferze? Inteligencja owadów może być bardziej zrównoważona. Cywilizacje mrówek i termitów są z pewnością bardziej oparte na współpracy. Wojny światowe i ludobójstwo są jedną z podstawowych cech historii ludzkości.
  • Sztuczna inteligencja staje się bardziej inteligentna niż ludzie - sztuczna inteligencja jest już pod pewnymi względami bardziej inteligentna niż ludzie, dlatego używamy kalkulatorów, automatycznego przełączania sygnałów komunikacyjnych zamiast operatorów i automatycznych sortowników poczty. Innymi słowy, AI musi przekroczyć astronomiczne odległości, aby zacząć zbliżać się do ludzkiej inteligencji. Nie mamy nic, co wskazywałoby nawet na możliwość symulowania lub powielania w przyszłości ludzkich zdolności rozumowania, inwencji i współczucia.
  • Osobliwości przewiduje się w latach 40. XX wieku - w tych prognozach znajduje się kilkanaście nierealnych założeń. Spójrz krytycznie na jeden z argumentów za nimi, a zobaczysz dziury, które możesz przelecieć 757 przez zawiązane oczy.
  • Gwałtowny wzrost wiedzy - Gwałtownie rośnie ilość informacji, ale odsetek tych informacji, które są zgodne z prawem recenzowane, zmniejsza się wraz ze wzrostem dezinformacji, dzikich przypuszczeń i fałszywych wiadomości. Wierzę, że ilość informacji na świecie może być przybliżona przez log (n), gdzie n to populacja. Jeśli zgadzam się z tą relacją, wartością informacyjną przeciętnego osobnika jest log (n) / n, która maleje wraz ze wzrostem populacji.
  • AI będzie w stanie wszechwiedzić - Wszechwiedza to coś więcej niż odpowiedź na jakiekolwiek pytanie. Wszechwiedza wymagałaby, aby odpowiedzi były w 100% niezawodne i 100% dokładne, co może wymagać więcej krzemu niż istnieje we wszechświecie. Przeczytaj Chaos Gleicka, jeśli chcesz zrozumieć, dlaczego. Można również argumentować, że wszechwiedząca istota nie odpowiadałaby na pytania na rozkaz.

Jeśli chcesz świata lepszego niż świat kontrolowany przez ludzką inteligencję, to jednym z kierunków, który należy obrać, jest poszukiwanie rozwoju nowego gatunku z bardziej zaawansowaną koncepcją spokojnej cywilizacji, która może nas oswoić i oswoić, tak jak to zrobiliśmy z psami i koty

Łatwiejszą drogą jest dla nas wszystkich śmierć. Biosfera mogła być bardziej cywilizowana, zanim przyjechaliśmy i zaczęliśmy zabijać wszystko i siebie nawzajem. Ale to nie moja nadzieja.

Moje zalecenie polega na tym, że badamy NI (nie-wywiad) i odkrywamy, jak pozbyć się głupoty z ludzkich zachowań i interakcji geopolitycznych. To poprawiłoby świat znacznie bardziej niż rozpraszające uwagę i zasadniczo nieistotne gadżety i aplikacje do uczenia maszynowego.


0

Oto kilka problemów, które wymyślił mój małpi umysł.

1.Smart! = Wszystko wiedząc

Eksplozja samodoskonalenia AI czyni ją mądrzejszą. Bycie mądrzejszym nie oznacza poznania większej liczby faktów. Myślę, że to dość wybredny argument, ale myślę, że warto o tym pomyśleć.

Bardzo mądry lekarz, który nie zna twojej historii, może nadal dokonać gorszego wyboru niż mniej inteligentny z lepszymi danymi.

2. Czy to wszystko dla ludzi? Czy to dla wszystkich ludzi?

ASI, który osiąga wyższy poziom, nie może być zainteresowany naszym samopoczuciem.

Kontrolowany ASI może nadal działać tylko dla nielicznych, jeśli ci nieliczni zdecydują się na złe cele, moglibyśmy cofnąć się.

3 trudne ASI

Umysł naukowy niekoniecznie pełen współczucia lub empatii.

4. Bycie mądrym i niemądrym

Wielkie umysły wciąż popełniają błędy: * w ustalaniu swoich celów i * w realizacji planu, aby go osiągnąć.

Intelekt geata nie gwarantuje braku celowości ani braku martwych punktów.

5. Limity

Jeśli istnieją granice egzystencji (ograniczenia prędkości typu światła), wtedy AI również będzie nimi podlegać. Może to oznaczać, że są rzeczy, których nawet ASI nie dostanie. Ponieważ nasz umysł może mieć ograniczenia oparte na swojej strukturze, kolejna sztuczna inteligencja może mieć również ograniczenia - i nawet jeśli poprawi się uppn, może osiągnąć granice, których nie może znaleźć rozwiązań, ponieważ jest „zbyt głupie”.

6. Nie dostaniemy tego

Zrozumienie przez ASI niektórych aspektów świata może nie być komunikatywne dla większości ludzi. Po prostu tego nie dostaniemy (nawet jeśli jesteśmy w stanie wszystko zrozumieć, to nie znaczy, że to zrozumiemy).

7. Jak z niego korzystać?

Możemy sami siebie zniszczyć, a sztuczna inteligencja dzięki technologii, którą pomaga nam budować. To nie musi być bomba. Może to być geoinżynieria lub cudowne leki.

Jest to szczególnie intensywne, gdy ASI jest już potężny, ale niewystarczająco silny, aby przewidzieć negatywne konsekwencje (lub i tak go zignorujemy).

Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.