Często słyszymy, że sztuczna inteligencja może zaszkodzić, a nawet zabić ludzi, więc może okazać się niebezpieczna.
Jak sztuczna inteligencja może zaszkodzić nam?
Często słyszymy, że sztuczna inteligencja może zaszkodzić, a nawet zabić ludzi, więc może okazać się niebezpieczna.
Jak sztuczna inteligencja może zaszkodzić nam?
Odpowiedzi:
Istnieje wiele ważnych powodów, dla których ludzie mogą bać się (lub lepiej martwić się ) AI, nie wszystkie obejmują roboty i apokaliptyczne scenariusze.
Aby lepiej zilustrować te obawy, spróbuję podzielić je na trzy kategorie.
Jest to rodzaj sztucznej inteligencji, do którego odnosi się twoje pytanie. Super-inteligentna świadoma sztuczna inteligencja, która zniszczy / zniewoli ludzkość. Jest to w większości dostarczane przez science fiction. Niektóre godne uwagi przykłady z Hollywood to „The terminator” , „Matrix” , „Age of Ultron” . Najbardziej wpływowe powieści zostały napisane przez Izaaka Asimova i są nazywane „serią Robotów” (która obejmuje „Ja, robot” , która również została zaadaptowana jako film).
Podstawową przesłanką większości tych prac jest to, że AI rozwinie się do punktu, w którym stanie się świadomy i przewyższy ludzi inteligencją. Podczas gdy filmy z Hollywood koncentrują się głównie na robotach i bitwie między nimi a ludźmi, niewystarczający nacisk kładzie się na rzeczywistą sztuczną inteligencję (tj. Kontrolujący ich „mózg”). Na marginesie, ze względu na narrację, ta sztuczna inteligencja jest zwykle przedstawiana jako superkomputer kontrolujący wszystko (tak, że protagoniści mają określony cel). Nie przeprowadzono wystarczającej eksploracji „niejednoznacznej inteligencji” (która moim zdaniem jest bardziej realistyczna).
W prawdziwym świecie AI koncentruje się na rozwiązywaniu określonych zadań! Agent AI, który jest w stanie rozwiązywać problemy z różnych dziedzin (np. Rozumienie mowy i przetwarzanie obrazów oraz kierowanie pojazdem i ... - podobnie jak ludzie) jest określany mianem ogólnej sztucznej inteligencji i jest wymagany, aby AI mogła „myśleć” i stać się świadomy.
Realistycznie jesteśmy odległą drogą od ogólnej sztucznej inteligencji! Biorąc to pod uwagę, nie ma dowodów na to, że nie można tego osiągnąć w przyszłości. Tak więc obecnie, nawet jeśli jesteśmy jeszcze w powijakach AI, nie mamy powodu sądzić, że AI nie rozwinie się do punktu, w którym będzie bardziej inteligentna niż ludzie.
Mimo że sztuczna inteligencja podbija świat jest daleka od tego, aby się nią zająć, istnieje kilka powodów, dla których należy się martwić sztuczną inteligencją , które nie dotyczą robotów! Druga kategoria, na której chcę się bardziej skupić, to kilka złośliwych zastosowań dzisiejszej sztucznej inteligencji.
Skoncentruję się tylko na aplikacjach AI, które są dziś dostępne . Niektóre przykłady sztucznej inteligencji, które można wykorzystać do złośliwych zamiarów:
DeepFake : technika narzucania komuś twarzy na obrazie wideo innej osoby. To ostatnio zyskało popularność wśród gwiazd porno i może być wykorzystywane do generowania fałszywych wiadomości i mistyfikacji. Źródła: 1 , 2 , 3
Dzięki systemom masowego nadzoru i oprogramowaniu do rozpoznawania twarzy , zdolnym do rozpoznawania milionów twarzy na sekundę , AI można wykorzystać do masowego nadzoru. Chociaż myśląc o masowej inwigilacji, myślimy o Chinach, wiele miast zachodnich, takich jak Londyn , Atlanta i Berlin, należy do najczęściej badanych miast na świecie . Chiny posunęły się o krok dalej, przyjmując system kredytów socjalnych, system oceny ludności cywilnej, który wydaje się być wyjęty wprost ze stron George'a Orwella z 1984 roku.
Wpływanie na ludzi za pośrednictwem mediów społecznościowych . Oprócz rozpoznawania gustów użytkowników w celu ukierunkowanego marketingu i dodawania miejsc docelowych (powszechna praktyka wielu firm internetowych), sztuczną inteligencję można wykorzystywać w sposób nieprzyzwoity do wpływania na głosowanie ludzi (między innymi). Źródła: 1 , 2 , 3 .
Hacking .
Zastosowania wojskowe, np. Ataki dronami, systemy celowania w pociski.
Ta kategoria jest dość subiektywna, ale rozwój AI może mieć pewne negatywne skutki uboczne. Różnica między tą kategorią a poprzednią polega na tym, że chociaż skutki te są szkodliwe, nie są wykonywane celowo; raczej pojawiają się wraz z rozwojem AI. Oto niektóre przykłady:
Praca staje się zbędna . W miarę jak AI staje się lepsze, wiele zadań zostanie zastąpionych przez AI. Niestety niewiele można z tym zrobić, ponieważ większość osiągnięć technologicznych ma ten efekt uboczny (np. Maszyny rolnicze spowodowały utratę pracy przez wielu rolników, automatyzacja zastąpiła wielu pracowników fabryki, komputery zrobiły to samo).
Wzmocnienie błędu w naszych danych . Jest to bardzo interesująca kategoria, ponieważ AI (a zwłaszcza sieci neuronowe) są tak dobre, jak dane, na których są szkolone, i mają tendencję do utrwalania, a nawet wzmacniania różnych form uprzedzeń społecznych, już istniejących w danych. Istnieje wiele przykładów sieci wykazujących zachowania rasistowskie i seksistowskie. Źródła: 1 , 2 , 3 , 4 .
Czy wspomniałem, że wszystkie są już w pełnym rozkwicie?
Chociaż nie ma wyraźnej granicy między AI a AGI, w tej sekcji jest więcej o tym, co dzieje się, gdy pójdziemy dalej w kierunku AGI. Widzę dwie alternatywy:
W pierwszym przypadku, jeśli sztuczna inteligencja „stanie się nieuczciwa”, możemy zbudować inne AI, aby przechytrzyć je i zneutralizować. W drugim przypadku nie możemy i jesteśmy skazani na zagładę. Sztuczna inteligencja będzie nową formą życia i możemy wyginąć.
Oto kilka potencjalnych problemów:
Myślę, że AGI nadchodzi i musimy uważać na te problemy, abyśmy mogli je zminimalizować.
Oprócz innych odpowiedzi chciałbym dodać do przykładu fabryki ciasteczek nuklearnych:
Sztuczne uczenie się AI w zasadzie starają się osiągnąć cel opisany przez ludzi. Na przykład ludzie tworzą sztuczną inteligencję z fabryką plików cookie. Celem, który realizują, jest sprzedaż jak największej liczby plików cookie w celu uzyskania najwyższej rentowności.
Teraz wyobraź sobie AI, która jest wystarczająco potężna. Ta sztuczna inteligencja zauważy, że jeśli nuknie wszystkie inne fabryki ciastek, wszyscy będą musieli kupować ciasteczka w swojej fabryce, co zwiększy sprzedaż i zyski.
Zatem ludzki błąd nie daje żadnej kary za użycie przemocy w algorytmie. Można to łatwo przeoczyć, ponieważ ludzie nie spodziewali się, że algorytm dojdzie do takiego wniosku.
Mój ulubiony scenariusz szkód spowodowanych przez AI dotyczy nie wysokiej inteligencji, ale niskiej inteligencji. W szczególności hipoteza szarej mazi .
To tutaj samoreplikujący się, zautomatyzowany proces uruchamia amok i przekształca wszystkie zasoby w kopie samego siebie.
Chodzi o to, że sztuczna inteligencja nie jest „inteligentna” w sensie wysokiej inteligencji lub inteligencji ogólnej - jest po prostu bardzo dobra w pojedynczej rzeczy i ma zdolność do replikacji wykładniczej.
Powiedziałbym, że największym realnym zagrożeniem byłoby niezrównoważenie / zakłócenie, które już obserwujemy. Zmiany polegające na zwolnieniu 90% kraju z pracy są realne, a wyniki (które będą jeszcze bardziej nierównomiernym podziałem bogactwa) są przerażające, jeśli się nad nimi zastanowić.
Mam przykład, który idzie w przeciwnym kierunku niż obawy opinii publicznej, ale jest to bardzo realna rzecz, którą już widzę. To nie jest specyficzne dla AI, ale myślę, że pogorszy się dzięki AI. Jest to problem polegający na tym, że ludzie ufają ślepo wnioskom AI w krytycznych zastosowaniach.
Mamy wiele obszarów, w których ludzcy eksperci powinni podjąć decyzję. Weźmy na przykład lekarstwo - czy powinniśmy podawać lek X czy lek Y? Sytuacje, o których myślę, to często złożone problemy (w sensie Cynefina), w których bardzo dobrze jest mieć bardzo uważną uwagę i korzystać z dużej wiedzy specjalistycznej, a wynik naprawdę ma znaczenie.
Istnieje zapotrzebowanie na informatyków medycznych, aby napisali systemy wspomagania decyzji dla tego rodzaju problemów w medycynie (i przypuszczam, że dla tego samego typu w innych dziedzinach). Robią co w ich mocy, ale zawsze oczekuje się, że ludzki ekspert zawsze weźmie pod uwagę sugestię systemu jako jeszcze jedną opinię przy podejmowaniu decyzji. W wielu przypadkach obiecanie czegokolwiek innego byłoby nieodpowiedzialne, biorąc pod uwagę stan wiedzy i zasoby dostępne dla programistów. Typowym przykładem może być zastosowanie wizji komputerowej w radiomice: pacjent otrzymuje skan CT, a AI musi przetworzyć obraz i zdecydować, czy pacjent ma guz.
Oczywiście AI nie jest idealna. Nawet w porównaniu ze złotym standardem nigdy nie osiąga 100% dokładności. A potem są wszystkie przypadki, w których osiąga dobre wyniki w porównaniu z własnymi wskaźnikami celu, ale problem był tak złożony, że wskaźnik celu nie uchwycił go dobrze - nie mogę wymyślić przykładu w kontekście CT, ale chyba widzimy to nawet tutaj na SE, gdzie algorytmy faworyzują popularność postów, co jest niedoskonałym wskaźnikiem poprawności faktów.
Prawdopodobnie czytałeś ostatni akapit i kiwnąłeś głową: „Tak, nauczyłem się tego na pierwszym wprowadzającym kursie ML, który wziąłem”. Zgadnij co? Lekarze nigdy nie brali wstępnego kursu ML. Rzadko mają wystarczającą znajomość statystyki, aby zrozumieć wnioski z artykułów pojawiających się w czasopismach medycznych. Kiedy rozmawiają z 27. pacjentem, 7 godzin po 16-godzinnej zmianie, są głodni i wyczerpani emocjonalnie, a tomografia komputerowa nie wygląda tak wyraźnie, ale komputer mówi „to nie jest złośliwość”, nie robią tego poświęć jeszcze dziesięć minut, aby bardziej skoncentrować się na obrazie, poszukaj podręcznika lub skonsultuj się z kolegą. Po prostu zgadzają się z tym, co mówi komputer, wdzięczny, że ich ładunek poznawczy po raz kolejny nie rośnie. Dlatego zmieniają się z ekspertów w ludzi, którzy czytają coś poza ekranem. Gorzej, w niektórych szpitalach administracja nie tylko ufa komputerom, ale także odkryła, że są wygodnymi kozłami ofiarnymi. Tak więc lekarz ma złe przeczucie, które jest sprzeczne z wydajnością komputera, staje się dla nich trudne do działania przy tym przeczuciu i obrony, że zdecydowali się przesłonić opinię AI.
AI są potężnymi i użytecznymi narzędziami, ale zawsze będą zadania, w których nie będą mogły zastąpić narzędzia.
To tylko ma być uzupełnieniem innych odpowiedzi, więc nie będę omawiać możliwości sztucznej inteligencji próbującej zniewolić ludzkość.
Ale już istnieje inne ryzyko. Nazwałbym to technologią niezmasterowaną . I zostały nauczył nauki i technologii, a IMHO, AI ma przy sobie żadnego pojęcia dobra i zła, ani wolności. Ale jest zbudowany i używany przez ludzi i z tego powodu może być zaangażowany nieracjonalne zachowanie.
Zacznę od prawdziwego przykładu bardziej związanego z ogólną informatyką niż z AI. Będę mówić o wirusach lub innych szkodliwych programach. Komputery są raczej głupimi maszynami, które nadają się do szybkiego przetwarzania danych. Więc większość ludzi na nich polega. Niektórzy (źli) ludzie rozwijają złośliwe oprogramowanie, które zakłóca prawidłowe zachowanie komputerów. Wszyscy wiemy, że mogą mieć straszne skutki dla małych i średnich organizacji, które nie są dobrze przygotowane na utratę komputera.
Sztuczna inteligencja jest oparta na komputerach, więc jest podatna na ataki typu komputerowego. Tutaj moim przykładem byłby samochód napędzany sztuczną inteligencją. Technologia jest prawie gotowa do pracy. Ale wyobraź sobie, jak szkodliwe oprogramowanie zmusza samochód do atakowania innych ludzi na drodze. Nawet bez bezpośredniego dostępu do kodu AI, może być atakowany przez kanały boczne . Na przykład używa kamer do odczytu znaków sygnałowych. Ale ze względu na sposób implementacji uczenia maszynowego sztuczna inteligencja zasadniczo nie analizuje sceny w taki sam sposób, jak człowiek. Badacze wykazali, że możliwa była zmiana znaku w taki sposób, że normalny człowiek nadal będzie widział pierwotny znak, ale AI zobaczy inny. Wyobraź sobie teraz, że znak jest znakiem priorytetu drogowego ...
Chodzi mi o to, że nawet jeśli sztuczna inteligencja nie ma złych zamiarów, źli ludzie mogą próbować sprawić, by źle się zachowywała. A do ważniejszych działań zostaną przydzielone AI (lekarstwa, samochody, samoloty, nie mówiąc o bombach), im wyższe ryzyko. Innymi słowy, tak naprawdę nie boję się sztucznej inteligencji dla siebie, ale dla sposobu, w jaki ludzie mogą z niej korzystać.
Myślę, że jednym z najbardziej realnych (tj. Związanych z obecnymi, istniejącymi AI) ryzykami jest ślepe poleganie na bez nadzoru AI z dwóch powodów.
Błąd fizyczny w systemach AI może zacząć generować bardzo błędne wyniki w regionach, w których nie zostały przetestowane, ponieważ system fizyczny zaczyna dostarczać nieprawidłowe wartości. Czasami jest to realizowane przez samokontrolę i redundancję, ale nadal wymaga okazjonalnego nadzoru ze strony ludzi.
Samouczące się SI mają również słabość oprogramowania - ich sieci wagowe lub reprezentacje statystyczne mogą zbliżać się do minimów lokalnych, gdy utkną z jednym błędnym wynikiem.
Jest to na szczęście często dyskutowane, ale warto wspomnieć: klasyfikacja danych wejściowych systemów AI jest często stronnicza, ponieważ zestaw danych szkoleniowych / testujących również był stronniczy. Powoduje to, że AI nie rozpoznają ludzi z określonej grupy etnicznej, na bardziej oczywisty przykład. Istnieją jednak mniej oczywiste przypadki, które można wykryć dopiero po jakimś poważnym wypadku, np. AI nie rozpoznając pewnych danych i przypadkowo rozpalając pożar w fabryce, niszcząc sprzęt lub raniąc ludzi.
Jeśli robot jest podobny do interfejsu człowiek-maszyna, urządzenie jest takie samo jak zdalnie sterowany samochód. Można dyskutować z operatorem za joystickiem i negocjować życzenia. Roboty zdalnie sterowane to bezpieczne wynalazki, ponieważ ich działania można przypisać do ludzi, a ich motywację można przewidzieć. Można je wykorzystać do poprawy codziennego życia i zabawnie się nimi bawić.
Dla kontrastu, niektóre roboty nie są kontrolowane przez joysticki, ale pracują z wewnętrznym generatorem kości. Kostka do gry znana jest ze swojej społecznej roli w grach hazardowych, ale ma również mistyczne znaczenie. Zazwyczaj generator losowy jest silnie związany z chaotycznym zachowaniem, które jest kontrolowane przez siły ciemności poza wpływem ludzi. Elektroniczne kostki wbudowane w robota i ulepszone algorytmem uczenia się są przeciwieństwem interfejsu człowiek-maszyna, ale mogą powodować problemy, ponieważ losowo kontrolowany robot będzie grał w gry z ludźmi, których nie można przewidzieć. Nie można przewidzieć następnej liczby kości, dlatego też robot będzie się zachowywał gwałtownie.
Związek między losowo kontrolowanymi grami a negatywnym wpływem społecznym wyjaśniono w następnym zdaniu.
cytat: „W wielu tradycyjnych społeczeństwach niezachodnich gracze mogą modlić się do bogów o sukces i wyjaśniać zwycięstwa i straty w kategoriach boskiej woli. „Binde, Per. „Hazard i religia: historie zgody i konfliktu”. Journal of Gambling Issues 20 (2007): 145–165.
Ludzie istnieją obecnie w niszy ekologiczno-ekonomicznej „tego, co myśli”.
AI jest również rzeczą, która myśli, więc będzie atakować naszą niszę ekologiczno-ekonomiczną. Zarówno w ekologii, jak i ekonomii posiadanie czegoś innego w swojej niszy nie jest doskonałym planem na przetrwanie.
To, jak dokładnie zagrożone jest przetrwanie ludzi, będzie dość chaotyczne. Będzie wiele możliwych sposobów, w jakie AI może zagrozić ludzkiemu przetrwaniu jako gatunek, a nawet jako dominująca forma życia.
Załóżmy, że istnieje silna sztuczna inteligencja bez „super etyki”, która jest tańsza w wytwarzaniu niż człowiek (w tym wytwarzanie „ciała” lub sposobu manipulowania światem) i równie inteligentna lub mądrzejsza niż człowiek.
To jest przypadek, w którym zaczynamy konkurować z tą AI o zasoby. Stanie się tak w skali mikroekonomicznej (czy zatrudniamy człowieka, czy kupujemy / budujemy / wypożyczamy / wynajmujemy AI, aby rozwiązać ten problem?). W zależności od tempa, w jakim sztuczna inteligencja staje się tania i / lub mądrzejsza od ludzi, może się to zdarzyć powoli (być może w danym momencie branża) lub bardzo szybko.
W kapitalistycznej konkurencji ci, którzy nie przeniosą się do tańszych AI, zostają pokonani.
Teraz, w krótkim okresie, jeśli zalety sztucznej inteligencji są marginalne, wysoki koszt edukacji ludzi przez 20 lat, zanim staną się produktywni, może spowolnić ten proces. W takim przypadku warto byłoby zapłacić lekarzowi powyżej płacy głodowej, aby zdiagnozować chorobę zamiast AI, ale prawdopodobnie nie warto spłacać pożyczek studenckich. Zatem nowi ludzcy lekarze szybko przestaliby się szkolić, a istniejący lekarze byliby zubożali. Wówczas ponad 20-30 lat AI całkowicie zastąpiłoby lekarzy do celów diagnostycznych.
Jeśli zalety AI są duże, byłoby to szybkie. Lekarze nie byliby nawet warci płacenia pensji na poziomie ubóstwa w celu przeprowadzenia diagnostyki u ludzi. Możesz zobaczyć coś takiego z rolnictwem opartym na mięśniach, kiedy przejęło rolnictwo oparte na benzynie.
Podczas poprzednich rewolucji przemysłowych fakt, że ludzie zdolni myśleć, oznacza, że można zmienić przeznaczenie nadwyżki ludzkich pracowników na inne działania; linie produkcyjne, miejsca pracy w gospodarce usługowej, programowanie komputerowe itp. Ale w tym modelu sztuczna inteligencja jest tańsza w szkoleniu i budowaniu oraz inteligentniejsza lub mądrzejsza niż ludzie w tego rodzaju pracy.
Jak pokazuje arabska wiosna wywołana etanolem, uprawy i pola uprawne mogą być wykorzystywane do napędzania zarówno maszyn, jak i ludzi. Kiedy maszyny będą bardziej wydajne pod względem przekształcania ziemi uprawnej w użyteczną pracę, zaczniesz widzieć wzrost ceny żywności. Zwykle prowadzi to do zamieszek, ponieważ ludzie naprawdę nie lubią głodować na śmierć i są gotowi zaryzykować własne życie, aby obalić rząd, aby temu zapobiec.
Możesz upiększyć ludzi, dostarczając subsydiowane jedzenie i tym podobne. Dopóki nie jest to ekonomicznie paraliżujące (tj. Jeśli jest wystarczająco drogie, może spowodować, że będziesz konkurować z innymi miejscami, które tego nie robią), jest to po prostu niestabilne politycznie.
Alternatywnie, w perspektywie krótkoterminowej kasta własności, która otrzymuje zyski z coraz bardziej wydajnej gospodarki opartej na sztucznej inteligencji, może zapłacić za policję lub kastę wojskową, by stłumić te zamieszki. Wymaga to, by kasty policyjne / wojskowe znajdowały się w wyższych klasach życia niższej niż średnia klasa, aby zapewnić ciągłą lojalność - nie chcesz, aby dołączały do uczestników zamieszek.
Jednym z centrów zysków, na które można skierować AI, jest wojsko i działania policyjne oparte na AI. Drony, które dostarczają śmiercionośne i nieśmiercionośne obrzędy oparte na przetwarzaniu wizualnych i innych danych, mogą zmniejszyć liczbę policji / wojska średniej klasy potrzebną do stłumienia zamieszek wywołanych cenami żywności lub innej niestabilności. Jak już założyliśmy, że sztuczna inteligencja może mieć ciała i trening tańszy niż biologiczny człowiek, może to również zwiększyć ilość siły, którą możesz zastosować na wydanego dolara.
W tym momencie mówimy o policji i wojsku wykorzystywanych głównie przez AI, aby powstrzymywać głodujących ludzi przed obaleniem gospodarki AI i wykorzystywaniem środków produkcji z bardziej wydajnego wykorzystania, jakim jest obecnie wykorzystywana.
Szczątkowi ludzie, którzy „posiadają” system na szczycie, podejmują lokalnie racjonalne decyzje w celu zoptymalizowania swojego bogactwa i władzy. Mogą, ale nie muszą trwać długo; tak długo, jak wyczerpią stosunkowo niewielką ilość zasobów i nie zepsują gospodarki opartej na sztucznej inteligencji, nie będzie presji selekcyjnej, aby się ich pozbyć. Z drugiej strony, ponieważ nie wnoszą nic wartościowego, pozycja „na szczycie” jest niestabilna politycznie.
Proces ten zakładał „silną” ogólną sztuczną inteligencję. Węższe AI mogą to zrobić w kawałkach. Tani, skuteczny komputer diagnostyczny może na przykład doprowadzić do ubóstwa większości lekarzy w zaskakująco krótkim czasie. Samochody samojezdne mogłyby połknąć 5–10% oszczędności. Technologia informacyjna już połyka sektor detaliczny ze skromną sztuczną inteligencją.
Mówi się, że każdy postęp technologiczny prowadzi do tworzenia lepszych miejsc pracy dla ludzi. Tak było przez ponad 300 lat.
Ale przed 1900 rokiem było również prawdą, że każdy postęp technologiczny doprowadził do powstania większej liczby lepszych miejsc pracy dla koni. Potem przybył ICE i samochód, a teraz jest znacznie mniej pracujących koni; pozostałe konie są w zasadzie odpowiednikiem ludzkich osobistych sług: zachowane ze względu na nowość „wow, cool, horse” oraz przyjemność z jazdy i kontrolowania ogromnego zwierzęcia.
Oprócz wielu już dostarczonych odpowiedzi, poruszyłbym kwestię przeciwnych przykładów w dziedzinie modeli obrazów.
Przeciwnymi przykładami są obrazy, które zostały zaburzone specjalnie zaprojektowanym hałasem, który często jest niezauważalny dla ludzkiego obserwatora, ale silnie zmienia przewidywania modelu.
Przykłady obejmują:
Wpływ na przewidywaną diagnozę na zdjęciu rentgenowskim klatki piersiowej
Wpływa na wykrywanie znaków drogowych niezbędnych dla pojazdów autonomicznych.
Sztuczna inteligencja używana do rozwiązania rzeczywistego problemu może stanowić zagrożenie dla ludzkości i nie wymaga dogłębności, wymaga to także pewnego rodzaju ludzkiej głupoty.
W przeciwieństwie do ludzi, AI znalazłaby najbardziej logiczną odpowiedź bez ograniczeń emocji, etyki, a nawet chciwości ... Tylko logika. Zapytaj tę sztuczną inteligencję, jak rozwiązać problem, który stworzyli ludzie (na przykład zmiany klimatu), a rozwiązaniem może być wyeliminowanie całej rasy ludzkiej w celu ochrony planety. Oczywiście wymagałoby to umożliwienia AI działania na podstawie jej wyniku, co prowadzi mnie do mojej wcześniejszej kwestii, ludzkiej głupoty.
Sztuczna inteligencja może zaszkodzić nam na każdy sposób naturalnej inteligencji (człowieka). Różnica między inteligencją naturalną a sztuczną zniknie, gdy ludzie zaczną się bardziej intensywnie powiększać. Inteligencja nie może już charakteryzować tożsamości i stanie się nieograniczoną własnością. Wyrządzone szkody wyrządzą tyle, ile ludzie mogą znieść dla zachowania ewoluującej tożsamości.
Niewiele osób zdaje sobie sprawę, że naszą globalną gospodarkę należy uznać za sztuczną inteligencję: - Transakcje pieniężne są sygnałami w sieci neuronowej. Węzłami w sieci neuronowej byłyby różne korporacje lub osoby prywatne płacące lub otrzymujące pieniądze. - Jest sztuczny, więc kwalifikuje się jako sztuczny
Ta sieć neuronowa jest lepsza w swoim zadaniu niż ludzie: kapitalizm zawsze wygrywał z ekonomią planowaną przez ludzi (ekonomia planowa).
Czy ta sieć neuronowa jest niebezpieczna? Może się różnić, jeśli jesteś dyrektorem generalnym zarabiającym w porównaniu z rybakiem w rzece zanieczyszczonej odpadami firmowymi.
Jak ta sztuczna inteligencja stała się niebezpieczna? Możesz odpowiedzieć na to z powodu ludzkiej chciwości. Nasze stworzenie odzwierciedla nas samych. Innymi słowy: nie ćwiczyliśmy naszej sieci neuronowej, aby zachowywała się dobrze. Zamiast trenować sieć neuronową w celu poprawy jakości życia wszystkich ludzi, przeszkoliliśmy ją, aby wzbogacić bogate foki.
Czy łatwo byłoby wyszkolić tę sztuczną inteligencję, aby nie była już niebezpieczna? Może nie, może niektóre AI są po prostu większe niż życie. To tylko przetrwanie najlepiej przystosowanych.