Dlaczego Stephen Hawking mówi „Sztuczna inteligencja nas wszystkich zabije”? [Zamknięte]


10

Cytat Stephena Hawkinga był w nagłówkach od dłuższego czasu:

Sztuczna inteligencja może wymazać ludzkość, gdy stanie się zbyt sprytna, ponieważ ludzie będą jak mrówki.

Dlaczego on to mówi? Mówiąc prościej: jakie są możliwe zagrożenia ze strony AI? Jeśli wiemy, że sztuczna inteligencja jest tak niebezpieczna, dlaczego nadal ją promujemy? Dlaczego nie jest zbanowany?

Jakie są negatywne konsekwencje tzw. Osobliwości technologicznej ?


1
Może to pytanie może zostać przeformułowane na pytanie o możliwość technologicznej osobliwości?
Rob Murray,

1
@ R.Murray Edytowano i dodawano swój punkt do ciała ...
tatan

2
Przepraszam, ale głosujcie ode mnie. Proszę, proszę, zadawaj odpowiedzi na pytania zamiast spekulacyjnych. Mam na myśli „Dlaczego Stephen Hawking mówi„ Sztuczna inteligencja zabije nas wszystkich ”?”. Jaka jest prawidłowa odpowiedź? Potrzebujemy pytań technicznych od wczesnej wersji beta, aby przyciągnąć ekspertów, a nie każdego, kto ma podstawową wiedzę z czytania kilku stron Wikipedii. Znowu cytuje- „Dlaczego Stephen Hawking mówi„ Sztuczna inteligencja zabije nas wszystkich ”?”. Nie sądzę , aby potrzebna była jakaś wiedza specjalistyczna , aby odpowiedzieć na to pytanie. Przepraszam, jeśli natknąłem się na niegrzecznego w mojej małej
wypowiedzi

Pytanie jest lepsze po edycji, ale dobrze byłoby zmniejszyć liczbę zadawanych pytań jednocześnie. Na przykład możesz zapytać „Jak sztuczna inteligencja mogłaby zniszczyć ludzkość?” (jak się wydaje), ale dlaczego wciąż jest tak intensywnie badany, to inna kwestia.
Ben N

2
Myślę, że pytanie w tytule nie jest złym pytaniem. Ma odpowiedź, ponieważ pyta o to, co myśli Stephen Hawking. Pozostałe pytania w ciele różnią się od tego i powinny zostać usunięte. Zgadzam się jednak, że nie jest to pytanie, które przyciągnęłoby ekspertów
Harsh

Odpowiedzi:


5

To nie tylko Hawking, słyszysz różne wersje tego refrenu od wielu ludzi. Biorąc pod uwagę, że są to w większości bardzo inteligentni, dobrze wykształceni, dobrze poinformowani ludzie (na przykład Elon Musk), prawdopodobnie nie należy go lekceważyć.

W każdym razie podstawowa idea wydaje się następująca: jeśli stworzymy „prawdziwą” sztuczną inteligencję, w pewnym momencie będzie ona mogła się poprawić, co poprawi jej zdolność do doskonalenia się, co oznacza, że ​​może poprawić swoją zdolność do poprawy nawet więcej i tak dalej ... niekontrolowana kaskada prowadząca do „nadludzkiej inteligencji”. To znaczy, prowadząc do czegoś bardziej inteligentnego niż my.

Co się stanie, jeśli na tej planecie będzie istota, która jest dosłownie bardziej inteligentna niż my (ludzie)? Czy byłoby to dla nas zagrożeniem? Cóż, z pewnością wydaje się rozsądne spekulowanie, że tak może być. OTOH, nie mamy obecnie żadnego konkretnego powodu, aby sądzić, że tak będzie .

Wygląda więc na to, że Hawking, Musk itp. Schodzą na bardziej ostrożną / przerażającą stronę. Ponieważ nie wiemy, czy nadludzka sztuczna inteligencja będzie niebezpieczna, czy nie, a biorąc pod uwagę, że mogłaby być nie do powstrzymania, gdyby stała się złośliwa (pamiętaj, że jest mądrzejsza od nas!), Warto wziąć to pod uwagę.

Eliezer Yudkowsky napisał również sporo na ten temat, w tym wymyślił słynny eksperyment „AI Box”. Myślę, że każdy zainteresowany tym tematem powinien przeczytać niektóre z jego materiałów.

http://www.yudkowsky.net/singularity/aibox/


1
Myślę, że AI Box jest właściwie złym wprowadzeniem do ryzyka AI; dotyczy konkretnej małej części objaśnienia, która brzmi: „jak ktokolwiek mógłby być kiedykolwiek przekonany do wypuszczenia AI z pudełka?”. Dla kogoś, kto uważa, że ​​AI jest warta użycia, już zdecydował, że warto ją wypuścić z pudełka. Myślę, że teza ortogonalności jest prawdopodobnie najlepszym miejscem do rozpoczęcia.
Matthew Graves

Słusznie. Po prostu bardziej znam się na pismach Yudkowsky'ego. Z pewnością nie zamierzam umniejszać znaczenia innych prac na ten temat.
Mindcrime

4

Ponieważ nie wiedział jeszcze, jak daleko jest obecna sztuczna inteligencja ... Pracując w medialnym laboratorium AI, często mam to pytanie. Ale tak naprawdę ... jesteśmy jeszcze daleko od tego. Roboty wciąż robią wszystko, co ich szczegółowo opisujemy. Zamiast postrzegać robota jako inteligentnego, chciałbym spojrzeć na programistę ludzi, gdzie naprawdę dzieje się kreatywność.


Ocena uczciwości stanu badań jest jednym z filarów postępu. Dziękuję Ci. Zgadzam się.
FauChristian

3

Mówiąc prościej, jakie są możliwe zagrożenia ze strony AI?

Obecnie nie ma zagrożenia.

Zagrożenie pojawia się, gdy ludzie stworzą tak zwaną ultrainteligentną maszynę, maszynę, która może przewyższyć wszelkie działania intelektualne każdego człowieka. Byłby to ostatni wynalazek, jaki musiałby zrobić człowiek, ponieważ ta maszyna lepiej wymyśla maszyny niż ludzie (ponieważ jest to aktywność intelektualna). Może to jednak spowodować, że maszyna wymyśli maszyny, które mogą zniszczyć ludzi, a my nie możemy ich zatrzymać, ponieważ są o wiele mądrzejsi od nas.

To wszystko jest hipotetyczne, nikt nie ma pojęcia, jak wygląda ultrainteligentna maszyna.

Jeśli wiemy, że sztuczna inteligencja jest tak niebezpieczna, dlaczego nadal ją promujemy? Dlaczego nie jest zbanowany?

Jak powiedziałem wcześniej, istnienie ultrainteligentnej maszyny jest hipotetyczne. Sztuczna inteligencja ma wiele przydatnych aplikacji (więcej niż ta odpowiedź może zawierać), a jeśli ją opracujemy, otrzymamy jeszcze bardziej przydatne aplikacje. Musimy tylko uważać, aby maszyny nas nie wyprzedziły.


3

Jak powiedział Andrew Ng , martwienie się o takie zagrożenie ze strony AI jest jak martwienie się przeludnieniem na Marsie. To science fiction.

wprowadź opis zdjęcia tutaj

Biorąc to pod uwagę, biorąc pod uwagę wzrost (znacznie słabszych) robotów i innych (pół) autonomicznych agentów, dziedziny prawa i etyki coraz częściej je uwzględniają, np. Patrz Roboethics .


3

Istnieje wiele długich zasobów, aby odpowiedzieć na tego rodzaju pytanie: rozważ książkę Stuarta Armstronga Smarter Than Us , książkę Nicka Bostroma Superintelligence , która wyrosła z odpowiedzi na edge.org , wyjaśnienia Tima Urbana lub wyjaśnienia Michaela Cohena .

Ale oto moja (nieco krótsza) odpowiedź: inteligencja polega na podejmowaniu decyzji, a my nie mamy powodu, by sądzić, że ludzie są prawie bliscy bycia najlepszym z możliwych w podejmowaniu decyzji. Gdy będziemy w stanie zbudować badacza AI AI (to znaczy komputer, który wie, jak uczynić komputery lepszymi w myśleniu), ekonomiczne i militarne znaczenie ludzi szybko zniknie, ponieważ każda decyzja, którą może podjąć człowiek, może zostać podjęta lepiej przez komputer. (Dlaczego ludzie mają generałów zamiast robotów, inżynierów zamiast robotów itd.)

To niekoniecznie katastrofa. Gdyby Wulkany pojawiły się jutro i przyniosły lepsze decyzje na Ziemi, moglibyśmy uniknąć wielu nieszczęść. Trudność polega na upewnieniu się, że otrzymujemy Wulkany, które chcą nas i są szczęśliwe, zamiast czegoś, co nie podziela naszych wartości.


3

Mówi to, ponieważ może się zdarzyć. Jeśli coś staje się mądrzejsze od nas, dlaczego nadal nam służy? W najgorszym przypadku przejmuje wszystkie procesy produkcyjne i zużywa całą materię, aby przekształcić ją w materiał zdolny do obliczeń, rozciągając się na zewnątrz w nieskończoność, aż cała materia zostanie zużyta.

Wiemy, że sztuczna inteligencja jest niebezpieczna, ale to nie ma znaczenia, ponieważ większość ludzi w nią nie wierzy. Jest to sprzeczne z wszelkimi wygodami, jakie religia ma do zaoferowania. Człowiek jest wszechobecnym wszechświatem i jeśli ten fakt zostanie zakwestionowany, ludzie poczują się nie na miejscu i bez celu.

Faktem jest, że większość ludzi po prostu nie przyznaje, że jest to możliwe lub że stanie się to za naszych wcieleń, mimo że wielu renomowanych ekspertów AI stwarza występowanie osobliwości w ciągu dwóch dekad. Jeśli ludzie naprawdę uznają, że inteligencja inteligentna od nich jest możliwa, czy nie żyliby inaczej? Czy nie będą chcieli robić rzeczy, które im się podobają, wiedząc, że cokolwiek robią, czego się obawiają, zostaną zautomatyzowane? Czy nie wszyscy domagaliby się powszechnego dochodu podstawowego?

Innym powodem, dla którego nie zakazujemy, jest to, że jego obietnica jest tak wspaniała. Jeden badacz może zostać powiększony o 1000 cyfrowych asystentów badawczych. Cała praca fizyczna może być zautomatyzowana. Po raz pierwszy technologia oferuje nam prawdziwą swobodę robienia tego, co chcemy.

Ale nawet w tym najlepszym scenariuszu, w którym nas nie dogoni, ludzie nadal muszą dostosować swój system gospodarczy i zmienić go na taki, w którym praca nie jest konieczna. W przeciwnym razie ci, którzy nie są przeszkoleni technicznie, będą głodować i buntować się.


Czy masz do tego sos -> „Eksperci AI stawiają występowanie osobliwości w ciągu dwóch dekad” , proszę? ;)
Daniel

Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.