Jaka jest koncepcja technologicznej osobliwości?


32

Słyszałem o idei technologicznej, co to jest i jak odnosi się do sztucznej inteligencji? Czy jest to teoretyczny punkt, w którym maszyny Sztucznej Inteligencji przeszły do ​​momentu, w którym rosną i uczą się samodzielnie poza tym, co ludzie mogą zrobić, a ich wzrost zaczyna się rozwijać? Skąd mielibyśmy wiedzieć, kiedy osiągniemy ten punkt?

Odpowiedzi:


20

Technologiczna osobliwość jest punkt teoretyczny w czasie, w którym samo-poprawy silna sztuczna inteligencja będzie w stanie zrozumieć i manipulować koncepcje poza zasięgiem ludzkiego mózgu, czyli momentu, kiedy może zrozumieć rzeczy ludzi, przez projektowanie biologicznego, może” t.

Niejednoznaczność związana z osobliwością wynika z faktu, że od osobliwości historia jest faktycznie nieprzewidywalna. Ludzkość nie byłaby w stanie przewidzieć żadnych przyszłych wydarzeń ani wyjaśnić jakichkolwiek obecnych wydarzeń, ponieważ sama nauka nie jest w stanie opisać zdarzeń uruchamianych maszynowo. Zasadniczo maszyny będą myśleć o nas w taki sam sposób, jak mrówki. Dlatego nie możemy przewidywać przeszłości. Ponadto, jako logiczna konsekwencja, nie bylibyśmy w stanie zdefiniować momentu, w którym osobliwość może w ogóle wystąpić, ani nawet rozpoznać, kiedy to nastąpi.

Aby jednak mogła wystąpić osobliwość, należy opracować AGI, a kwestia, czy jest to możliwe, jest dość gorącą debatąteraz. Ponadto należałoby zaprojektować algorytm, który tworzy nadludzką inteligencję z bitów i bajtów. Z definicji ludzki programista nie byłby w stanie zrobić czegoś takiego, ponieważ jego mózg musiałby być w stanie zrozumieć koncepcje poza swoim zasięgiem. Istnieje również argument, że eksplozja inteligencji (mechanizm, dzięki któremu teoretycznie formowałaby się osobliwość technologiczna) byłaby niemożliwa z uwagi na trudność w projektowaniu, by stać się bardziej inteligentnym, powiększającym się proporcjonalnie do swojej inteligencji, a także trudność samego projektu może wyprzedzić inteligencję wymaganą do rozwiązania wspomnianego wyzwania (ostatni punkt przypisuje się bogu lam w komentarzach).

Istnieją również powiązane teorie dotyczące przejmowania ludzkości przez maszyny i cała ta narracja science fiction. Jest to jednak mało prawdopodobne, jeśli odpowiednio przestrzegane będą prawa Asimova . Nawet gdyby prawa Asimova były niewystarczające, nadal konieczne byłoby wprowadzenie szeregu ograniczeń, aby uniknąć niewłaściwego użycia AGI przez osoby, które wprowadziły w błąd, a prawa Asimova są najbliższe nam.


Istnieje również argument, że eksplozja inteligencji (mechanizm, dzięki któremu teoretycznie powstałaby osobliwość technologiczna) byłaby niemożliwa ze względu na trudność w projektowaniu polegającą na tym, aby stać się bardziej inteligentnym, aby stać się większym proporcjonalnym do swojej inteligencji, oraz że trudność wyzwanie projektowe może wyprzedzić inteligencję wymaganą do rozwiązania wspomnianego wyzwania projektowego. << możesz dodać to do swojej odpowiedzi, aby była bardziej kompletna / wyczerpująca.
bóg lam

1
Prawa robotyki Asimova nie są traktowane poważnie, w rzeczywistości zostały one wymyślone, aby pokazać wiele sposobów, w jakie mogą pójść nie tak i zostać źle zinterpretowane przez AI (zakładając oczywiście, że AI nie jest wystarczająco inteligentna, aby całkowicie je zignorować i wymyślić własne intencje i cele) i takie były historie. Zobacz ten film .
bóg lam

@godofllamas: Dziękuję za twoją propozycję, odpowiednio zaktualizowałem odpowiedź. Jeśli chodzi o prawa Asimova, AFAIK, prawo zerowe zostało zaprojektowane właśnie w celu uniknięcia wielu sposobów, w jakie trzy pierwotne prawa były (ab) używane w opowieściach Asimova. W każdym razie AI musiałoby zostać w jakiś sposób ograniczone, czy to prawem Asimova, czy czymkolwiek innym, aby uniknąć możliwego niewłaściwego użycia i dalszego spustoszenia.
3442

Zrozumienie rzeczy, których ludzie nie mogą, nie jest wymogiem teorii osobliwości w AI. Gdyby maszyny mogły zrozumieć tylko 1% tego, co rozumieją ludzie, ale mogłyby podwoić ten poziom zrozumienia każdego roku, pojawiłaby się osobliwość. Nawet jeśli maszyna nigdy nie przewyższyłaby jakościowo ludzkiego mózgu, gdyby mogła przetwarzać szybciej lub bardziej niezawodnie, nadal wykazywałaby wyższość i prawdopodobnie osiągnąłaby dominację.
FauChristian

3

Pojęcie „osobliwości” ma miejsce, gdy maszyny przechytrzają ludzi. Chociaż Stephen Hawking uważa, że ​​taka sytuacja jest nieunikniona, ale myślę, że osiągnięcie tego punktu będzie bardzo trudne, ponieważ każdy algorytm AI musi być zaprogramowany przez ludzi, dlatego zawsze byłby bardziej ograniczony niż jego twórca.

Prawdopodobnie wiedzielibyśmy, kiedy ludzkość straci kontrolę nad Sztuczną Inteligencją, gdzie super-inteligentna sztuczna inteligencja będzie konkurować z ludźmi i być może powstanie bardziej wyrafinowanych inteligentnych istot, ale obecnie bardziej przypomina science fiction (inaczej Skynet Terminatora ).

Ryzyko może polegać na zabijaniu ludzi (takich jak samoloty bojowe podejmujące własną decyzję), niszczeniu krajów, a nawet całej planety (np. AI podłączonej do broni nuklearnej (aka WarGames ), ale nie dowodzi to, że maszyny byłyby mądrzejsze od ludzi.


„każdy algorytm AI musi być programowany przez ludzi” -> Ogólną ideą sztucznej inteligencji jest to, że maszyny mogą uczyć się poprzez ulepszanie własnego programowania. Teoretycznie może to spowodować, że maszyny staną się inteligentniejsze od nas i będą w stanie tworzyć algorytmy lepsze niż dowolny algorytm napisany przez ludzi, co z kolei zapewni jeszcze lepszą AI.
John Slegers

„każdy algorytm sztucznej inteligencji musi być programowany przez ludzi, dlatego zawsze byłby bardziej ograniczony niż jego twórca” - to interesujący argument. poniżej są kontrargumenty -1) nie musimy kodować inteligencji sztucznej inteligencji. musimy zakodować AI, aby móc obserwować, wnioskować i rozumieć. Po tym, przypuszczalnie, dodanie odpowiednio większej mocy obliczeniowej i szybszych uczyniłoby AI zdolną do uczenia się i chwytania lepiej od nas.2) Ponadto, jeśli 1000 ludzi zastosuje swój mózg do zbudowania AI, AI może mieć więcej inteligencji niż 1 człowiek.
akm

Algorytmy NIE muszą być programowane przez ludzi. Możliwe jest i właściwie dość powszechne przekształcanie, mutowanie, optymalizacja, ocena i wybór algorytmów; a maszyny już wcześniej przechytrzają ludzi w pewien sposób i dość często.
FauChristian

3

Osobliwość, w kontekście sztucznej inteligencji, jest wydarzeniem teoretycznym, w ramach którego wdrażany jest inteligentny system spełniający następujące kryteria.

  1. Może poprawić zasięg własnej inteligencji lub wdrożyć inny system o takim ulepszonym zasięgu
  2. Chętnie lub zmuszony do tego
  3. Może to zrobić przy braku nadzoru ze strony człowieka
  4. Ulepszona wersja spełnia rekursywnie kryteria od (1) do (3)

Dzięki indukcji teoria przewiduje następnie, że zostanie wygenerowana sekwencja zdarzeń o potencjalnym tempie wzrostu inteligencji, który może znacznie przekroczyć potencjalny poziom ewolucji mózgu.

To, jak zobowiązany byłby ten samodoskonalący się byt lub populacja prokreowanych bytów, by chronić ludzkie życie i wolność, jest nieokreślone. Pomysł, że taki obowiązek może być częścią nieodwołalnej umowy na oprogramowanie, jest naiwny w świetle charakteru możliwości związanych z kryteriami od (1) do (4) powyżej. Podobnie jak w przypadku innych zaawansowanych technologii, ryzyko jest tak liczne i daleko idące, jak potencjalne korzyści.

Zagrożenia dla ludzkości nie wymagają inteligencji. Istnieją inne konteksty używania terminu osobliwość, ale są one poza zakresem forum AI, ale mogą być warte krótkiej wzmianki dla jasności. Inżynieria genetyczna, inżynieria nuklearna, globalizacja i oparcie międzynarodowej gospodarki na skończonym źródle energii zużywanym tysiące razy szybciej niż na ziemi - to inne przykłady technologii wysokiego ryzyka i trendów masowych, które stanowią ryzyko i korzyści dla ludzkości.

Wracając do AI, głównym zastrzeżeniem w teorii osobliwości jest brak uwzględnienia prawdopodobieństwa. Chociaż może być możliwe stworzenie bytu, który spełnia kryteria od (1) do (4) powyżej, może to być na tyle nieprawdopodobne, że pierwsze zdarzenie nastąpi długo po tym, jak wszystkie obecne języki mówione na Ziemi będą martwe.

Z drugiej strony rozkładu prawdopodobieństwa można łatwo argumentować, że istnieje niezerowe prawdopodobieństwo, że pierwsze zdarzenie już miało miejsce.

Zgodnie z tymi wytycznymi, gdyby mądrzejsza obecność istniała już w Internecie, jak prawdopodobne jest, że w jej najlepszym interesie byłoby ujawnienie się niższym istotom ludzkim. Czy przedstawiamy się muchomorowi?


Dziękuję za wyjaśnienie. Muszę przyznać, że nie rozumiem koncepcyjnie, jak wyglądałyby te warunki, zwłaszcza 1). Przypuszczalnie algorytm jest implementowany z mniej lub bardziej określonym zestawem danych wejściowych i wyjściowych. Czy musimy założyć, że to zmienia te zestawy, aby 1) była prawdziwa? Dlaczego którykolwiek ludzki programista miałby na to pozwolić, przynajmniej w niekontrolowany sposób, nawet na długo przed poziomem AGI? I ... czy to naiwne pytanie? :)
Kpt Reynolds

0

„Osobliwość”, rozpatrywana wąsko, odnosi się do punktu, w którym wzrost gospodarczy jest tak szybki, że nie jesteśmy w stanie przewidzieć, jak będzie wyglądać przyszła przeszłość tego punktu.

Często używa się go zamiennie z „eksplozją inteligencji”, kiedy mamy tak zwaną Silną AI, która jest inteligencją wystarczająco inteligentną, aby ją zrozumieć i poprawić. Wydaje się rozsądnym oczekiwać, że eksplozja wywiadu natychmiast doprowadziłaby do osobliwości ekonomicznej, ale odwrotnie nie jest to prawda.

Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.