Jak sztuczna inteligencja może zaszkodzić nam?


50

Często słyszymy, że sztuczna inteligencja może zaszkodzić, a nawet zabić ludzi, więc może okazać się niebezpieczna.

Jak sztuczna inteligencja może zaszkodzić nam?


6
Jest to nieco ogólne, ponieważ istnieje wiele powodów i sugerowanych scenariuszy, w których sztuczna inteligencja może stać się niebezpieczna. Na przykład, jak sugeruje DuttaA powyżej, ludzie mogą projektować inteligentne systemy broni, które decydują, na co celować, i jest to prawdziwy problem, ponieważ możliwe jest już użycie wąskiej sztucznej inteligencji. Być może daj więcej kontekstu konkretnym obawom, które chcesz zrozumieć, cytując lub łącząc konkretny problem, który przeczytałeś (użyj edycji ).
Neil Slater

4
@NeilSlater Tak, to może być zbyt szerokie, ale myślę, że ta odpowiedź ai.stackexchange.com/a/15462/2444 zawiera pewne prawdopodobne powody. Zredagowałem pytanie, aby usunąć prawdopodobnie błędne założenie.
nbro

2
Czy to pytanie dotyczy konkretnie „superinteligencji” lub AI w ogóle? (Na przykład, jeśli hipotetyczna superinteligencja, to hipotetyczny „ problem kontroli ” stanowi problem. Jednak współczesne zautomatyzowane systemy broni nie będą superinteligentne, podobnie jak pojazdy autonomiczne, a te mogą zaszkodzić ludziom.)
DukeZhou

@DukeZhou OP nie pierwotnie i wyraźnie wspominał o superinteligencji, ale przypuszczam, że miał na myśli wszystko, co można uznać za AI, w tym SI.
nbro

3
Najpierw zapytaj, w jaki sposób normalna inteligencja może ci zaszkodzić? Odpowiedź jest wtedy taka sama.
J ...

Odpowiedzi:


46

tl; dr

Istnieje wiele ważnych powodów, dla których ludzie mogą bać się (lub lepiej martwić się ) AI, nie wszystkie obejmują roboty i apokaliptyczne scenariusze.

Aby lepiej zilustrować te obawy, spróbuję podzielić je na trzy kategorie.

Świadoma sztuczna inteligencja

Jest to rodzaj sztucznej inteligencji, do którego odnosi się twoje pytanie. Super-inteligentna świadoma sztuczna inteligencja, która zniszczy / zniewoli ludzkość. Jest to w większości dostarczane przez science fiction. Niektóre godne uwagi przykłady z Hollywood to „The terminator” , „Matrix” , „Age of Ultron” . Najbardziej wpływowe powieści zostały napisane przez Izaaka Asimova i są nazywane „serią Robotów” (która obejmuje „Ja, robot” , która również została zaadaptowana jako film).

Podstawową przesłanką większości tych prac jest to, że AI rozwinie się do punktu, w którym stanie się świadomy i przewyższy ludzi inteligencją. Podczas gdy filmy z Hollywood koncentrują się głównie na robotach i bitwie między nimi a ludźmi, niewystarczający nacisk kładzie się na rzeczywistą sztuczną inteligencję (tj. Kontrolujący ich „mózg”). Na marginesie, ze względu na narrację, ta sztuczna inteligencja jest zwykle przedstawiana jako superkomputer kontrolujący wszystko (tak, że protagoniści mają określony cel). Nie przeprowadzono wystarczającej eksploracji „niejednoznacznej inteligencji” (która moim zdaniem jest bardziej realistyczna).

W prawdziwym świecie AI koncentruje się na rozwiązywaniu określonych zadań! Agent AI, który jest w stanie rozwiązywać problemy z różnych dziedzin (np. Rozumienie mowy i przetwarzanie obrazów oraz kierowanie pojazdem i ... - podobnie jak ludzie) jest określany mianem ogólnej sztucznej inteligencji i jest wymagany, aby AI mogła „myśleć” i stać się świadomy.

Realistycznie jesteśmy odległą drogą od ogólnej sztucznej inteligencji! Biorąc to pod uwagę, nie ma dowodów na to, że nie można tego osiągnąć w przyszłości. Tak więc obecnie, nawet jeśli jesteśmy jeszcze w powijakach AI, nie mamy powodu sądzić, że AI nie rozwinie się do punktu, w którym będzie bardziej inteligentna niż ludzie.

Używanie sztucznej inteligencji ze złośliwymi zamiarami

Mimo że sztuczna inteligencja podbija świat jest daleka od tego, aby się nią zająć, istnieje kilka powodów, dla których należy się martwić sztuczną inteligencją , które nie dotyczą robotów! Druga kategoria, na której chcę się bardziej skupić, to kilka złośliwych zastosowań dzisiejszej sztucznej inteligencji.

Skoncentruję się tylko na aplikacjach AI, które są dziś dostępne . Niektóre przykłady sztucznej inteligencji, które można wykorzystać do złośliwych zamiarów:

  • DeepFake : technika narzucania komuś twarzy na obrazie wideo innej osoby. To ostatnio zyskało popularność wśród gwiazd porno i może być wykorzystywane do generowania fałszywych wiadomości i mistyfikacji. Źródła: 1 , 2 , 3

  • Dzięki systemom masowego nadzoru i oprogramowaniu do rozpoznawania twarzy , zdolnym do rozpoznawania milionów twarzy na sekundę , AI można wykorzystać do masowego nadzoru. Chociaż myśląc o masowej inwigilacji, myślimy o Chinach, wiele miast zachodnich, takich jak Londyn , Atlanta i Berlin, należy do najczęściej badanych miast na świecie . Chiny posunęły się o krok dalej, przyjmując system kredytów socjalnych, system oceny ludności cywilnej, który wydaje się być wyjęty wprost ze stron George'a Orwella z 1984 roku.

  • Wpływanie na ludzi za pośrednictwem mediów społecznościowych . Oprócz rozpoznawania gustów użytkowników w celu ukierunkowanego marketingu i dodawania miejsc docelowych (powszechna praktyka wielu firm internetowych), sztuczną inteligencję można wykorzystywać w sposób nieprzyzwoity do wpływania na głosowanie ludzi (między innymi). Źródła: 1 , 2 , 3 .

  • Hacking .

  • Zastosowania wojskowe, np. Ataki dronami, systemy celowania w pociski.

Niekorzystne skutki AI

Ta kategoria jest dość subiektywna, ale rozwój AI może mieć pewne negatywne skutki uboczne. Różnica między tą kategorią a poprzednią polega na tym, że chociaż skutki te są szkodliwe, nie są wykonywane celowo; raczej pojawiają się wraz z rozwojem AI. Oto niektóre przykłady:

  • Praca staje się zbędna . W miarę jak AI staje się lepsze, wiele zadań zostanie zastąpionych przez AI. Niestety niewiele można z tym zrobić, ponieważ większość osiągnięć technologicznych ma ten efekt uboczny (np. Maszyny rolnicze spowodowały utratę pracy przez wielu rolników, automatyzacja zastąpiła wielu pracowników fabryki, komputery zrobiły to samo).

  • Wzmocnienie błędu w naszych danych . Jest to bardzo interesująca kategoria, ponieważ AI (a zwłaszcza sieci neuronowe) są tak dobre, jak dane, na których są szkolone, i mają tendencję do utrwalania, a nawet wzmacniania różnych form uprzedzeń społecznych, już istniejących w danych. Istnieje wiele przykładów sieci wykazujących zachowania rasistowskie i seksistowskie. Źródła: 1 , 2 , 3 , 4 .


4
Nie rozumiem, dlaczego „zwolnienia z pracy” są poważnym problemem. Jak piękny byłby świat, gdyby nikt (lub przynajmniej ogromna większość ludzi) nie musiałaby pracować i mogłaby zamiast tego skupić się na swoich hobby i cieszeniu się życiem.
kukis

4
@kukis Jak zdobyć jedzenie, dom itp. bez pracy, chyba że jesteś już bogaty? Praca oznacza przeżycie dla większości ludzi.
nbro

6
Jeśli chodzi o zwolnienie miejsc pracy, wydaje się, że możemy coś z tym zrobić, tj. Przerobić nasze modele ekonomiczne, aby nie polegać na ludziach mających pracę. Chodzi mi o to, że jeśli nasze systemy gospodarcze załamałyby się po zalaniu dużą ilością taniej siły roboczej, to oczywiście są one wadliwe. Biorąc pod uwagę, że oczekujemy, że wada ta stanie się niebezpieczna w dającej się przewidzieć przyszłości, należy ją naprawić.
Nat

2
Innym przykładem, w którym AI może powodować poważne problemy, jest handel akcjami. Zdecydowana większość transakcji na giełdzie odbywa się obecnie przez coraz bardziej konkurencyjne AI, które mogą reagować znacznie szybciej niż ludzie handlujący ludźmi. Ale doszło do tego, że nawet ludzie, którzy je napisali, niekoniecznie rozumieją powód, dla którego AI podejmują decyzje, które podejmują, i nastąpił katastrofalny wpływ na rynki z powodu nieudanych algorytmów przewidywania zapasów.
Darrel Hoffman

8
@penelope nie każde zadanie, które AI próbuje zastąpić, jest „mało interesujące”. Twierdzę, że istnieje wiele miejsc pracy o wysokim popycie, które można zastąpić w (nie tak odległej) przyszłości. Niektóre przykłady to lekarze, handlowcy i piloci. Jeśli sztuczna inteligencja będzie postępować i będzie coraz lepsza w diagnozowaniu chorób, nie byłoby nierozsądne sądzić, że liczba miejsc pracy u lekarza zostanie zmniejszona.
Djib2011

14

Krótkoterminowe

  • Wypadki fizyczne , np. Z powodu maszyn przemysłowych, autopilota samolotu, samochodów samojezdnych. Zwłaszcza w przypadku nietypowych sytuacji, takich jak ekstremalna pogoda lub awaria czujnika. Zazwyczaj sztuczna inteligencja będzie źle funkcjonować w warunkach, w których nie została dokładnie przetestowana.
  • Skutki społeczne, takie jak ograniczenie dostępności miejsc pracy, bariery dla upośledzonych pracowników. pożyczki, ubezpieczenie, zwolnienie warunkowe.
  • Silniki rekomendacji coraz bardziej manipulują nami, aby zmienić nasze zachowania (a także wzmocnić własne bąbelki „małego świata”). Mechanizmy rekomendacji rutynowo podają różnego rodzaju nieodpowiednie treści małym dzieciom, często dlatego, że twórcy treści (np. Na YouTube) stosują odpowiednie słowa kluczowe, by wyglądać na przyjazne dla dzieci.
  • Manipulacje polityczne ... Myślę, że wystarczy.
  • Prawdopodobna zaprzeczalność naruszenia prywatności . Teraz, gdy sztuczna inteligencja może czytać wiadomości e-mail, a nawet wykonywać dla ciebie rozmowy telefoniczne, łatwo jest, aby ludzie działali na podstawie twoich danych osobowych i twierdzili, że mają do tego komputer.
  • Przekształcanie wojny w grę wideo , czyli zastępowanie żołnierzy maszynami obsługiwanymi zdalnie przez kogoś, kto nie jest w niebezpieczeństwie i jest daleko od swoich ofiar.
  • Brak przejrzystości . Ufamy, że maszyny podejmą decyzje przy użyciu bardzo niewielkich środków, aby uzyskać uzasadnienie decyzji.
  • Zużycie zasobów i zanieczyszczenie. Nie jest to tylko problem sztucznej inteligencji, jednak każde ulepszenie sztucznej inteligencji powoduje większe zapotrzebowanie na Big Data i razem wzmagają potrzebę przechowywania, przetwarzania i sieci. Oprócz zużycia energii elektrycznej i rzadkich minerałów infrastrukturę należy zutylizować po kilku latach użytkowania.
  • Nadzór - dzięki wszechobecności smartfonów i urządzeń nasłuchujących, istnieje złota kopalnia danych, ale za dużo, by przesiać każdy kawałek. Zdobądź sztuczną inteligencję, aby ją przesiać, oczywiście!
  • Cyberbezpieczeństwo - cyberprzestępcy coraz częściej wykorzystują AI do atakowania swoich celów.

Czy wspomniałem, że wszystkie są już w pełnym rozkwicie?

Długoterminowy

Chociaż nie ma wyraźnej granicy między AI a AGI, w tej sekcji jest więcej o tym, co dzieje się, gdy pójdziemy dalej w kierunku AGI. Widzę dwie alternatywy:

  • Albo rozwijamy AGI w wyniku lepszego zrozumienia natury inteligencji,
  • lub uderzamy w coś, co wydaje się działać, ale nie rozumiemy zbyt dobrze, podobnie jak obecnie wiele uczenia maszynowego.

W pierwszym przypadku, jeśli sztuczna inteligencja „stanie się nieuczciwa”, możemy zbudować inne AI, aby przechytrzyć je i zneutralizować. W drugim przypadku nie możemy i jesteśmy skazani na zagładę. Sztuczna inteligencja będzie nową formą życia i możemy wyginąć.

Oto kilka potencjalnych problemów:

  • Kopiuj i wklej. Jednym z problemów związanych z AGI jest to, że można go uruchomić na komputerze stacjonarnym, co stwarza szereg problemów:
    • Script Kiddies - ludzie mogą pobrać AI i ustawić parametry w destrukcyjny sposób. Pokrewnie
    • Grupy przestępcze lub terrorystyczne byłyby w stanie skonfigurować AI według własnych upodobań. Nie musisz szukać eksperta od robienia bomb lub broni biologicznej, jeśli możesz pobrać AI, powiedz mu, aby przeprowadził badania, a następnie udzieli ci instrukcji krok po kroku.
    • Samoreplikująca się sztuczna inteligencja - jest na ten temat wiele gier komputerowych. AI rozpada się i rozprzestrzenia jak wirus. Im więcej mocy obliczeniowej, tym lepiej jest w stanie się chronić i dalej się rozprzestrzeniać.
  • Inwazja zasobów obliczeniowych . Jest prawdopodobne, że większa moc obliczeniowa jest korzystna dla AI. AI może kupować lub kraść zasoby serwera lub zasoby komputerów stacjonarnych i urządzeń mobilnych. W skrajności może to oznaczać, że wszystkie nasze urządzenia stały się bezużyteczne, co natychmiast spowodowałoby spustoszenie w świecie. Może to również oznaczać ogromne zużycie prądu (i ciężko byłoby „wyciągnąć wtyczkę”, ponieważ elektrownie są sterowane komputerowo!)
  • Zautomatyzowane fabryki. AGI chcące uzyskać większą fizyczną obecność na świecie może przejąć fabryki do produkcji robotów, które mogłyby budować nowe fabryki i zasadniczo tworzyć ciała dla siebie.
  • Są to względy filozoficzne, ale niektórzy twierdzą, że AI zniszczy to, co czyni nas ludźmi:
    • Niższość. Co jeśli wiele istot AI jest mądrzejszych, szybszych, bardziej niezawodnych i bardziej kreatywnych niż najlepsi ludzie?
    • Bezcelowość. Ponieważ roboty zastępują potrzebę pracy fizycznej, a SI zastępują potrzebę pracy intelektualnej, naprawdę nie będziemy mieli nic do roboty. Nikt nie otrzyma ponownie Nagrody Nobla, ponieważ AI będzie już przed nami. Po co w ogóle się uczyć?
    • Monokultura / stagnacja - w różnych scenariuszach (takich jak pojedynczy AGI „życzliwy dyktator”) społeczeństwo może zostać utrwalone w sposób ciągły bez nowych pomysłów lub jakichkolwiek zmian (choć może to być przyjemne). Zasadniczo, Nowy wspaniały świat.

Myślę, że AGI nadchodzi i musimy uważać na te problemy, abyśmy mogli je zminimalizować.


1
Wydaje mi się, że daleko jest do AI, która jest w stanie przeprogramować fabryki, aby budować dla siebie roboty. Współczesne „AI” to naprawdę wyrafinowane rozpoznawanie wzorów.
user253751

Powiedziałem „długoterminowe” i „AGI”. AGI z definicji wykracza daleko poza wyrafinowane rozpoznawanie wzorców. I chociaż „wyrafinowane rozpoznawanie wzorców” jest zdecydowanie najbardziej powszechną rzeczą stosowaną w rzeczywistych aplikacjach, jest już mnóstwo pracy w innych kierunkach (szczególnie rozkładanie problemów / planowanie działań, które IMO stanowi punkt odniesienia dla tego rodzaju scenariuszy. )
Artelius

8

Oprócz innych odpowiedzi chciałbym dodać do przykładu fabryki ciasteczek nuklearnych:

Sztuczne uczenie się AI w zasadzie starają się osiągnąć cel opisany przez ludzi. Na przykład ludzie tworzą sztuczną inteligencję z fabryką plików cookie. Celem, który realizują, jest sprzedaż jak największej liczby plików cookie w celu uzyskania najwyższej rentowności.

Teraz wyobraź sobie AI, która jest wystarczająco potężna. Ta sztuczna inteligencja zauważy, że jeśli nuknie wszystkie inne fabryki ciastek, wszyscy będą musieli kupować ciasteczka w swojej fabryce, co zwiększy sprzedaż i zyski.

Zatem ludzki błąd nie daje żadnej kary za użycie przemocy w algorytmie. Można to łatwo przeoczyć, ponieważ ludzie nie spodziewali się, że algorytm dojdzie do takiego wniosku.


8
Przypomina mi to przykład z prawdziwego świata, który widziałem kiedyś na reddit, gdzie ktoś trenował AI, aby wspinać się po schodach w Unity. Odkrył, że może wcisnąć się w ziemię z dużą siłą, a fizyka ulegnie awarii, powodując, że wyleci w powietrze i będzie najszybszy na szczyt.
GammaGames

2
Albo, co gorsza, zdecydowałoby, że ludzie są zbudowani z atomów, z których lepiej byłoby zrobić ciasteczka.
nick012000

Słyszałem już ten argument. Jednym z błędów przewidywania dnia zagłady AI jest to, że nie możemy przewidzieć, co zrobi AI. Jest całkowicie możliwe, że AI rozpozna, że ​​zbombardowanie innych firm zajmujących się ciastkami może zrzucić globalną gospodarkę i zniszczyć potencjalny popyt na ciasteczka ... Prawo ekonomii, podaż ORAZ popyt
Zakk Diaz

8

Mój ulubiony scenariusz szkód spowodowanych przez AI dotyczy nie wysokiej inteligencji, ale niskiej inteligencji. W szczególności hipoteza szarej mazi .

To tutaj samoreplikujący się, zautomatyzowany proces uruchamia amok i przekształca wszystkie zasoby w kopie samego siebie.

Chodzi o to, że sztuczna inteligencja nie jest „inteligentna” w sensie wysokiej inteligencji lub inteligencji ogólnej - jest po prostu bardzo dobra w pojedynczej rzeczy i ma zdolność do replikacji wykładniczej.


3
FWIW, ludzie są już szarą mazią. Jesteśmy samolubną szarą mazią, która nie chce zostać zastąpiona jeszcze bardziej wydajną szarą mazią.
user253751

1
@immibis To oczywiście filozoficzny POV, a nie fakt. Istnieje wiele osób, które odróżniają ludzi od maszyn samoreplikujących się / samowystarczalnych. Filmy o zombie nie odniosłyby wielkiego sukcesu, gdyby większość miała na
uwadze

1
@immibis Czy czytałeś szary artykuł na Wikipedii, do którego odnosi się ta odpowiedź? Termin ten odnosi się do nieinteligentnych (nano) maszyn idących w amoku, a nie do jakiegokolwiek inteligentnego zachowania. Powiedziałbym więc, że nie, ludzie to nie to (podobnie jak AI), ponieważ nie zjedliśmy Alberta Einsteina, kiedy mogliśmy.
kubańczyk

@Kubańczyk podstawowe znaczenie pojęcia „inteligencja” wydaje się być szeroko rozumiane, zarówno w środowisku akademickim, jak i opinii publicznej. Inteligencja jest spektrum, zasadniczo względnym (w stosunku do innych mechanizmów decyzyjnych), i opiera się na użyteczności każdej decyzji w kontekście problemu. Tak więc szara mazia byłaby inteligentna, tylko że inteligencja byłaby ograniczona i wąska.
DukeZhou

5

Powiedziałbym, że największym realnym zagrożeniem byłoby niezrównoważenie / zakłócenie, które już obserwujemy. Zmiany polegające na zwolnieniu 90% kraju z pracy są realne, a wyniki (które będą jeszcze bardziej nierównomiernym podziałem bogactwa) są przerażające, jeśli się nad nimi zastanowić.


2
Ludzie mówili to samo podczas rewolucji przemysłowej, która spowodowała, że ​​większość miejsc pracy w rolnictwie stała się zbędna. Chociaż nie możesz się mylić i martwię się o to osobiście, trendy w badaniach naukowych pokazują, że może to nie stanowić problemu i prawdopodobnie pojawią się nowe miejsca pracy.
Programmdude

@Programmdude - Myślę, że istnieje zasadnicza różnica między zmianami rewolucji przemysłowej, a nawet eliminacją pracy sekretarskiej poprzez nadejście P z tym, co stanie się w nadchodzących dziesięcioleciach.
Mayo

2
@Programmdude A ludzie mieli rację. Rewolucja przemysłowa zmieniła wszystko w sposobie życia ludzi, była wyjątkowo destrukcyjna pod względem podziału bogactwa i zdolności ludzi do egzystencji na dochodzie z gospodarstwa. Z innego punktu widzenia: Właściciele niewolników spoglądający wstecz z kilkuset lat w przyszłości prawdopodobnie nie będą postrzegać skutków sztucznej inteligencji w tym okresie jako destrukcyjnych, ponieważ ukształtowało to ich sytuację.
Bill K

@BillK Byłem z tobą aż do części o właścicielach niewolników. Wiesz, że AI nie są samoświadome, prawda?
Ray

@Ray Nie miałem na myśli AI, miałem na myśli ludzi, którzy kontrolowali AI (I dlatego mieliby całe bogactwo), i tak naprawdę był to tylko sposób na wskazanie, że rzeczy mogą być dla nas niezrozumiale różne, ale nie Czuję to inaczej patrząc wstecz.
Bill K

5

Mam przykład, który idzie w przeciwnym kierunku niż obawy opinii publicznej, ale jest to bardzo realna rzecz, którą już widzę. To nie jest specyficzne dla AI, ale myślę, że pogorszy się dzięki AI. Jest to problem polegający na tym, że ludzie ufają ślepo wnioskom AI w krytycznych zastosowaniach.

Mamy wiele obszarów, w których ludzcy eksperci powinni podjąć decyzję. Weźmy na przykład lekarstwo - czy powinniśmy podawać lek X czy lek Y? Sytuacje, o których myślę, to często złożone problemy (w sensie Cynefina), w których bardzo dobrze jest mieć bardzo uważną uwagę i korzystać z dużej wiedzy specjalistycznej, a wynik naprawdę ma znaczenie.

Istnieje zapotrzebowanie na informatyków medycznych, aby napisali systemy wspomagania decyzji dla tego rodzaju problemów w medycynie (i przypuszczam, że dla tego samego typu w innych dziedzinach). Robią co w ich mocy, ale zawsze oczekuje się, że ludzki ekspert zawsze weźmie pod uwagę sugestię systemu jako jeszcze jedną opinię przy podejmowaniu decyzji. W wielu przypadkach obiecanie czegokolwiek innego byłoby nieodpowiedzialne, biorąc pod uwagę stan wiedzy i zasoby dostępne dla programistów. Typowym przykładem może być zastosowanie wizji komputerowej w radiomice: pacjent otrzymuje skan CT, a AI musi przetworzyć obraz i zdecydować, czy pacjent ma guz.

Oczywiście AI nie jest idealna. Nawet w porównaniu ze złotym standardem nigdy nie osiąga 100% dokładności. A potem są wszystkie przypadki, w których osiąga dobre wyniki w porównaniu z własnymi wskaźnikami celu, ale problem był tak złożony, że wskaźnik celu nie uchwycił go dobrze - nie mogę wymyślić przykładu w kontekście CT, ale chyba widzimy to nawet tutaj na SE, gdzie algorytmy faworyzują popularność postów, co jest niedoskonałym wskaźnikiem poprawności faktów.

Prawdopodobnie czytałeś ostatni akapit i kiwnąłeś głową: „Tak, nauczyłem się tego na pierwszym wprowadzającym kursie ML, który wziąłem”. Zgadnij co? Lekarze nigdy nie brali wstępnego kursu ML. Rzadko mają wystarczającą znajomość statystyki, aby zrozumieć wnioski z artykułów pojawiających się w czasopismach medycznych. Kiedy rozmawiają z 27. pacjentem, 7 godzin po 16-godzinnej zmianie, są głodni i wyczerpani emocjonalnie, a tomografia komputerowa nie wygląda tak wyraźnie, ale komputer mówi „to nie jest złośliwość”, nie robią tego poświęć jeszcze dziesięć minut, aby bardziej skoncentrować się na obrazie, poszukaj podręcznika lub skonsultuj się z kolegą. Po prostu zgadzają się z tym, co mówi komputer, wdzięczny, że ich ładunek poznawczy po raz kolejny nie rośnie. Dlatego zmieniają się z ekspertów w ludzi, którzy czytają coś poza ekranem. Gorzej, w niektórych szpitalach administracja nie tylko ufa komputerom, ale także odkryła, że ​​są wygodnymi kozłami ofiarnymi. Tak więc lekarz ma złe przeczucie, które jest sprzeczne z wydajnością komputera, staje się dla nich trudne do działania przy tym przeczuciu i obrony, że zdecydowali się przesłonić opinię AI.

AI są potężnymi i użytecznymi narzędziami, ale zawsze będą zadania, w których nie będą mogły zastąpić narzędzia.


Jeśli szukasz więcej przykładów, kontrowersje wokół korzystania z uczenia maszynowego do przewidywania odsetka osób ubiegających się o zwolnienie za kaucją lub zwolnienie warunkowe są dobre. Zgadzam się, że nie powinniśmy oczekiwać od lekarzy i sędziów poziomu wiedzy statystycznej niezbędnego do zrozumienia AI, oprócz ich wiedzy medycznej i prawnej. Projektanci sztucznej inteligencji powinni być świadomi omylności swoich algorytmów i zapewnić jasne wskazówki dla użytkowników. Może powiedz lekarzowi, gdzie ma wyglądać na tomografii komputerowej zamiast bezpośrednio dać wynik.
craq

4

To tylko ma być uzupełnieniem innych odpowiedzi, więc nie będę omawiać możliwości sztucznej inteligencji próbującej zniewolić ludzkość.

Ale już istnieje inne ryzyko. Nazwałbym to technologią niezmasterowaną . I zostały nauczył nauki i technologii, a IMHO, AI ma przy sobie żadnego pojęcia dobra i zła, ani wolności. Ale jest zbudowany i używany przez ludzi i z tego powodu może być zaangażowany nieracjonalne zachowanie.

Zacznę od prawdziwego przykładu bardziej związanego z ogólną informatyką niż z AI. Będę mówić o wirusach lub innych szkodliwych programach. Komputery są raczej głupimi maszynami, które nadają się do szybkiego przetwarzania danych. Więc większość ludzi na nich polega. Niektórzy (źli) ludzie rozwijają złośliwe oprogramowanie, które zakłóca prawidłowe zachowanie komputerów. Wszyscy wiemy, że mogą mieć straszne skutki dla małych i średnich organizacji, które nie są dobrze przygotowane na utratę komputera.

Sztuczna inteligencja jest oparta na komputerach, więc jest podatna na ataki typu komputerowego. Tutaj moim przykładem byłby samochód napędzany sztuczną inteligencją. Technologia jest prawie gotowa do pracy. Ale wyobraź sobie, jak szkodliwe oprogramowanie zmusza samochód do atakowania innych ludzi na drodze. Nawet bez bezpośredniego dostępu do kodu AI, może być atakowany przez kanały boczne . Na przykład używa kamer do odczytu znaków sygnałowych. Ale ze względu na sposób implementacji uczenia maszynowego sztuczna inteligencja zasadniczo nie analizuje sceny w taki sam sposób, jak człowiek. Badacze wykazali, że możliwa była zmiana znaku w taki sposób, że normalny człowiek nadal będzie widział pierwotny znak, ale AI zobaczy inny. Wyobraź sobie teraz, że znak jest znakiem priorytetu drogowego ...

Chodzi mi o to, że nawet jeśli sztuczna inteligencja nie ma złych zamiarów, źli ludzie mogą próbować sprawić, by źle się zachowywała. A do ważniejszych działań zostaną przydzielone AI (lekarstwa, samochody, samoloty, nie mówiąc o bombach), im wyższe ryzyko. Innymi słowy, tak naprawdę nie boję się sztucznej inteligencji dla siebie, ale dla sposobu, w jaki ludzie mogą z niej korzystać.


3

Myślę, że jednym z najbardziej realnych (tj. Związanych z obecnymi, istniejącymi AI) ryzykami jest ślepe poleganie na bez nadzoru AI z dwóch powodów.

1. Systemy AI mogą ulec degradacji

Błąd fizyczny w systemach AI może zacząć generować bardzo błędne wyniki w regionach, w których nie zostały przetestowane, ponieważ system fizyczny zaczyna dostarczać nieprawidłowe wartości. Czasami jest to realizowane przez samokontrolę i redundancję, ale nadal wymaga okazjonalnego nadzoru ze strony ludzi.

Samouczące się SI mają również słabość oprogramowania - ich sieci wagowe lub reprezentacje statystyczne mogą zbliżać się do minimów lokalnych, gdy utkną z jednym błędnym wynikiem.

2. Systemy AI są stronnicze

Jest to na szczęście często dyskutowane, ale warto wspomnieć: klasyfikacja danych wejściowych systemów AI jest często stronnicza, ponieważ zestaw danych szkoleniowych / testujących również był stronniczy. Powoduje to, że AI nie rozpoznają ludzi z określonej grupy etnicznej, na bardziej oczywisty przykład. Istnieją jednak mniej oczywiste przypadki, które można wykryć dopiero po jakimś poważnym wypadku, np. AI nie rozpoznając pewnych danych i przypadkowo rozpalając pożar w fabryce, niszcząc sprzęt lub raniąc ludzi.


To dobra, współczesna odpowiedź. „Czarnej skrzynki” AI, takiej jak sieci neuronowe, nie można przetestować w sposób absolutny, co czyni je mniej niż w 100% przewidywalnymi - a co za tym idzie, mniej niż 100% niezawodnymi. Nigdy nie wiemy, kiedy AI opracuje alternatywną strategię dla danego problemu i jak ta alternatywna strategia wpłynie na nas, i jest to naprawdę ogromny problem, jeśli chcemy polegać na AI w ważnych zadaniach, takich jak prowadzenie samochodów lub zarządzanie zasobami.
laancelot

1

Jeśli robot jest podobny do interfejsu człowiek-maszyna, urządzenie jest takie samo jak zdalnie sterowany samochód. Można dyskutować z operatorem za joystickiem i negocjować życzenia. Roboty zdalnie sterowane to bezpieczne wynalazki, ponieważ ich działania można przypisać do ludzi, a ich motywację można przewidzieć. Można je wykorzystać do poprawy codziennego życia i zabawnie się nimi bawić.

Dla kontrastu, niektóre roboty nie są kontrolowane przez joysticki, ale pracują z wewnętrznym generatorem kości. Kostka do gry znana jest ze swojej społecznej roli w grach hazardowych, ale ma również mistyczne znaczenie. Zazwyczaj generator losowy jest silnie związany z chaotycznym zachowaniem, które jest kontrolowane przez siły ciemności poza wpływem ludzi. Elektroniczne kostki wbudowane w robota i ulepszone algorytmem uczenia się są przeciwieństwem interfejsu człowiek-maszyna, ale mogą powodować problemy, ponieważ losowo kontrolowany robot będzie grał w gry z ludźmi, których nie można przewidzieć. Nie można przewidzieć następnej liczby kości, dlatego też robot będzie się zachowywał gwałtownie.

Związek między losowo kontrolowanymi grami a negatywnym wpływem społecznym wyjaśniono w następnym zdaniu.

cytat: „W wielu tradycyjnych społeczeństwach niezachodnich gracze mogą modlić się do bogów o sukces i wyjaśniać zwycięstwa i straty w kategoriach boskiej woli. „Binde, Per. „Hazard i religia: historie zgody i konfliktu”. Journal of Gambling Issues 20 (2007): 145–165.


1

Ludzie istnieją obecnie w niszy ekologiczno-ekonomicznej „tego, co myśli”.

AI jest również rzeczą, która myśli, więc będzie atakować naszą niszę ekologiczno-ekonomiczną. Zarówno w ekologii, jak i ekonomii posiadanie czegoś innego w swojej niszy nie jest doskonałym planem na przetrwanie.

To, jak dokładnie zagrożone jest przetrwanie ludzi, będzie dość chaotyczne. Będzie wiele możliwych sposobów, w jakie AI może zagrozić ludzkiemu przetrwaniu jako gatunek, a nawet jako dominująca forma życia.


Załóżmy, że istnieje silna sztuczna inteligencja bez „super etyki”, która jest tańsza w wytwarzaniu niż człowiek (w tym wytwarzanie „ciała” lub sposobu manipulowania światem) i równie inteligentna lub mądrzejsza niż człowiek.

To jest przypadek, w którym zaczynamy konkurować z tą AI o zasoby. Stanie się tak w skali mikroekonomicznej (czy zatrudniamy człowieka, czy kupujemy / budujemy / wypożyczamy / wynajmujemy AI, aby rozwiązać ten problem?). W zależności od tempa, w jakim sztuczna inteligencja staje się tania i / lub mądrzejsza od ludzi, może się to zdarzyć powoli (być może w danym momencie branża) lub bardzo szybko.

W kapitalistycznej konkurencji ci, którzy nie przeniosą się do tańszych AI, zostają pokonani.

Teraz, w krótkim okresie, jeśli zalety sztucznej inteligencji są marginalne, wysoki koszt edukacji ludzi przez 20 lat, zanim staną się produktywni, może spowolnić ten proces. W takim przypadku warto byłoby zapłacić lekarzowi powyżej płacy głodowej, aby zdiagnozować chorobę zamiast AI, ale prawdopodobnie nie warto spłacać pożyczek studenckich. Zatem nowi ludzcy lekarze szybko przestaliby się szkolić, a istniejący lekarze byliby zubożali. Wówczas ponad 20-30 lat AI całkowicie zastąpiłoby lekarzy do celów diagnostycznych.

Jeśli zalety AI są duże, byłoby to szybkie. Lekarze nie byliby nawet warci płacenia pensji na poziomie ubóstwa w celu przeprowadzenia diagnostyki u ludzi. Możesz zobaczyć coś takiego z rolnictwem opartym na mięśniach, kiedy przejęło rolnictwo oparte na benzynie.

Podczas poprzednich rewolucji przemysłowych fakt, że ludzie zdolni myśleć, oznacza, że ​​można zmienić przeznaczenie nadwyżki ludzkich pracowników na inne działania; linie produkcyjne, miejsca pracy w gospodarce usługowej, programowanie komputerowe itp. Ale w tym modelu sztuczna inteligencja jest tańsza w szkoleniu i budowaniu oraz inteligentniejsza lub mądrzejsza niż ludzie w tego rodzaju pracy.

Jak pokazuje arabska wiosna wywołana etanolem, uprawy i pola uprawne mogą być wykorzystywane do napędzania zarówno maszyn, jak i ludzi. Kiedy maszyny będą bardziej wydajne pod względem przekształcania ziemi uprawnej w użyteczną pracę, zaczniesz widzieć wzrost ceny żywności. Zwykle prowadzi to do zamieszek, ponieważ ludzie naprawdę nie lubią głodować na śmierć i są gotowi zaryzykować własne życie, aby obalić rząd, aby temu zapobiec.

Możesz upiększyć ludzi, dostarczając subsydiowane jedzenie i tym podobne. Dopóki nie jest to ekonomicznie paraliżujące (tj. Jeśli jest wystarczająco drogie, może spowodować, że będziesz konkurować z innymi miejscami, które tego nie robią), jest to po prostu niestabilne politycznie.

Alternatywnie, w perspektywie krótkoterminowej kasta własności, która otrzymuje zyski z coraz bardziej wydajnej gospodarki opartej na sztucznej inteligencji, może zapłacić za policję lub kastę wojskową, by stłumić te zamieszki. Wymaga to, by kasty policyjne / wojskowe znajdowały się w wyższych klasach życia niższej niż średnia klasa, aby zapewnić ciągłą lojalność - nie chcesz, aby dołączały do ​​uczestników zamieszek.

Jednym z centrów zysków, na które można skierować AI, jest wojsko i działania policyjne oparte na AI. Drony, które dostarczają śmiercionośne i nieśmiercionośne obrzędy oparte na przetwarzaniu wizualnych i innych danych, mogą zmniejszyć liczbę policji / wojska średniej klasy potrzebną do stłumienia zamieszek wywołanych cenami żywności lub innej niestabilności. Jak już założyliśmy, że sztuczna inteligencja może mieć ciała i trening tańszy niż biologiczny człowiek, może to również zwiększyć ilość siły, którą możesz zastosować na wydanego dolara.

W tym momencie mówimy o policji i wojsku wykorzystywanych głównie przez AI, aby powstrzymywać głodujących ludzi przed obaleniem gospodarki AI i wykorzystywaniem środków produkcji z bardziej wydajnego wykorzystania, jakim jest obecnie wykorzystywana.

Szczątkowi ludzie, którzy „posiadają” system na szczycie, podejmują lokalnie racjonalne decyzje w celu zoptymalizowania swojego bogactwa i władzy. Mogą, ale nie muszą trwać długo; tak długo, jak wyczerpią stosunkowo niewielką ilość zasobów i nie zepsują gospodarki opartej na sztucznej inteligencji, nie będzie presji selekcyjnej, aby się ich pozbyć. Z drugiej strony, ponieważ nie wnoszą nic wartościowego, pozycja „na szczycie” jest niestabilna politycznie.

Proces ten zakładał „silną” ogólną sztuczną inteligencję. Węższe AI mogą to zrobić w kawałkach. Tani, skuteczny komputer diagnostyczny może na przykład doprowadzić do ubóstwa większości lekarzy w zaskakująco krótkim czasie. Samochody samojezdne mogłyby połknąć 5–10% oszczędności. Technologia informacyjna już połyka sektor detaliczny ze skromną sztuczną inteligencją.

Mówi się, że każdy postęp technologiczny prowadzi do tworzenia lepszych miejsc pracy dla ludzi. Tak było przez ponad 300 lat.

Ale przed 1900 rokiem było również prawdą, że każdy postęp technologiczny doprowadził do powstania większej liczby lepszych miejsc pracy dla koni. Potem przybył ICE i samochód, a teraz jest znacznie mniej pracujących koni; pozostałe konie są w zasadzie odpowiednikiem ludzkich osobistych sług: zachowane ze względu na nowość „wow, cool, horse” oraz przyjemność z jazdy i kontrolowania ogromnego zwierzęcia.


1

Oprócz wielu już dostarczonych odpowiedzi, poruszyłbym kwestię przeciwnych przykładów w dziedzinie modeli obrazów.

Przeciwnymi przykładami są obrazy, które zostały zaburzone specjalnie zaprojektowanym hałasem, który często jest niezauważalny dla ludzkiego obserwatora, ale silnie zmienia przewidywania modelu.

Przykłady obejmują:


0

Sztuczna inteligencja używana do rozwiązania rzeczywistego problemu może stanowić zagrożenie dla ludzkości i nie wymaga dogłębności, wymaga to także pewnego rodzaju ludzkiej głupoty.

W przeciwieństwie do ludzi, AI znalazłaby najbardziej logiczną odpowiedź bez ograniczeń emocji, etyki, a nawet chciwości ... Tylko logika. Zapytaj tę sztuczną inteligencję, jak rozwiązać problem, który stworzyli ludzie (na przykład zmiany klimatu), a rozwiązaniem może być wyeliminowanie całej rasy ludzkiej w celu ochrony planety. Oczywiście wymagałoby to umożliwienia AI działania na podstawie jej wyniku, co prowadzi mnie do mojej wcześniejszej kwestii, ludzkiej głupoty.


0

Sztuczna inteligencja może zaszkodzić nam na każdy sposób naturalnej inteligencji (człowieka). Różnica między inteligencją naturalną a sztuczną zniknie, gdy ludzie zaczną się bardziej intensywnie powiększać. Inteligencja nie może już charakteryzować tożsamości i stanie się nieograniczoną własnością. Wyrządzone szkody wyrządzą tyle, ile ludzie mogą znieść dla zachowania ewoluującej tożsamości.


0

Niewiele osób zdaje sobie sprawę, że naszą globalną gospodarkę należy uznać za sztuczną inteligencję: - Transakcje pieniężne są sygnałami w sieci neuronowej. Węzłami w sieci neuronowej byłyby różne korporacje lub osoby prywatne płacące lub otrzymujące pieniądze. - Jest sztuczny, więc kwalifikuje się jako sztuczny

Ta sieć neuronowa jest lepsza w swoim zadaniu niż ludzie: kapitalizm zawsze wygrywał z ekonomią planowaną przez ludzi (ekonomia planowa).

Czy ta sieć neuronowa jest niebezpieczna? Może się różnić, jeśli jesteś dyrektorem generalnym zarabiającym w porównaniu z rybakiem w rzece zanieczyszczonej odpadami firmowymi.

Jak ta sztuczna inteligencja stała się niebezpieczna? Możesz odpowiedzieć na to z powodu ludzkiej chciwości. Nasze stworzenie odzwierciedla nas samych. Innymi słowy: nie ćwiczyliśmy naszej sieci neuronowej, aby zachowywała się dobrze. Zamiast trenować sieć neuronową w celu poprawy jakości życia wszystkich ludzi, przeszkoliliśmy ją, aby wzbogacić bogate foki.

Czy łatwo byłoby wyszkolić tę sztuczną inteligencję, aby nie była już niebezpieczna? Może nie, może niektóre AI są po prostu większe niż życie. To tylko przetrwanie najlepiej przystosowanych.

Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.