Czy osobliwość należy brać na poważnie?


10

Termin „Osobliwość” jest często używany w głównych mediach do opisu technologii wizjonerskiej. Został wprowadzony przez Ray Kurzweil w popularnej książce The Singularity Is Near: When Humans Transcend Biology (2005).

W swojej książce Kurzweil przedstawia perspektywę potencjalnej przyszłości ludzkości, która obejmuje nanotechnologię, komputery, modyfikację genetyczną i sztuczną inteligencję. Twierdzi, że prawo Moore'a zezwoli komputerom na gwałtowny wzrost, który spowoduje superinteligencję.

Czy osobliwość technologiczna jest czymś, co poważnie traktują twórcy sztucznej inteligencji, czy też teoria ta to tylko popularna popularność?


Debata wokół Singularity jest podtematem w tak zwanym ruchu neoluddite. To filozoficzna debata na temat rozwoju technologii z pesymistycznym podejściem. Bill Joy opublikował słynny esej w 2000 roku, w którym opowiada się przeciwko technologii. Ruch neoluddytu jest rodzajem antyideologii dla silniejszego, szybszego i mądrzejszego myślenia o Dolinie Krzemowej. Osobliwość to połączenie ideologii pro i contra w celu moderowania debaty.
Manuel Rodriguez

2
Myślę, że naprawdę ciężko będzie ci znaleźć jakiekolwiek solidne podstawy naukowe związane z AI, które sugerują, że Singularity jest nawet możliwa.
Andreas Storvik Strauman,

Być może zainteresuje Cię to pytanie
Neil Slater,

Odpowiedzi:


8

Mogę powiedzieć, że wśród badaczy AI, z którymi współpracuję, o wiele bardziej powszechne jest postrzeganie go jako dzikiej spekulacji niż jako ustalonego faktu.

Potwierdzają to badania ankietowe badaczy AI , z których 80% uważa, że ​​silne formy AI pojawią się „za ponad 50 lat” lub „nigdy”, a zaledwie kilka procent uważa, że ​​takie formy AI są „bliskie”.

Deweloperzy oprogramowania to nie to samo, co badacze AI, i odkryłem, że mit Singularity jest znacznie bardziej rozpowszechniony wśród programistów. Ma to fajny charakter: komputery stają się coraz szybsze, w pewnym momencie będą szybsze niż mózgi, w tym momencie po prostu symulujemy mózgi. Niedługo potem symulujemy coś lepszego niż mózg.

Podejrzewam, że powody, dla których badacze AI są mniej optymistyczni, są zakorzenione w fakcie, że nadal nie mamy dobrego zrozumienia ludzkiej inteligencji, a nawet wystarczającej wiedzy mózgu, aby ją zasymulować. Na przykład w ciągu ostatnich dwóch tygodni odkryliśmy nieznane wcześniej typy komórek mózgowych . Daje to (prawidłowe) wrażenie, że nawet gdybyśmy mieli wystarczająco szybki komputer, wcale nie jesteśmy blisko możliwości dokładnego symulowania ludzkiego mózgu. Naprawdę nie wiemy, czym jest ludzki mózg.

Nawet jeśli o tym wiemy, symulacje są z konieczności stratne. Możemy nie mieć dobrych technik symulacji. Nawet jeśli mieliśmy dobre techniki, możemy symulować mózg i odkryć, że nasza symulacja nie zachowuje się zgodnie z oczekiwaniami z powodów, których nie rozumiemy. Jest to bardzo prawdopodobne przy symulacji nowych systemów. W pewnym sensie zwolennicy Osobliwości przypominają ludzi przewidujących, że kontrola pogody była blisko w latach 40. XX wieku. W końcu mogliśmy już symulować proste wzorce pogodowe i generować prognozy, które działały. O ile bardziej skomplikowane może być generowanie doskonałych prognoz?


2
To oświadczenie brzmi jak początek nadchodzącej zimy AI, w której badacze AI odrzucają swoje marzenia o budowie inteligentnych maszyn i przyznają, że nie mają nic do zaoferowania. Myślę, że możemy opisać rzeczywistość nieco bardziej optymistycznie. W projekcie Blue brain nieśmiertelność jest jednym z celów i można ją osiągnąć za pomocą nanobotów. Są w stanie skopiować umysł z jednego mózgu do drugiego. Według futurystów stanie się to rzeczywistością w roku 2030. Przynajmniej Unia Europejska uważa, że ​​ma to sens, i wspiera projekt kwotą 1 miliarda USD. Czy ta kwota jest wystarczająco poważna?
Manuel Rodriguez

2
@ManuelRodriguez Myślę, że to nie tyle zima, co realistyczne i dojrzałe spojrzenie na technologię. Naprawdę można i naprawdę rozwiązania wiele trudnych problemów z AI teraz. Przeskakiwanie od tego do nieśmiertelności, nanobotów i kopiowania mózgu jest nieuzasadnione. Może w końcu będziemy mieć takie rzeczy, ale te technologie nie są nawet bliskie funkcjonalności. Wsparcie dla podstawowych badań w tym zakresie jest dobre, ale nie jest tak, że sztucznej inteligencji brakowało funduszy w latach 50. i 60. Wydawanie pieniędzy nie oznacza, że ​​za 10 lat będziemy mieć nieśmiertelność i sklonowane mózgi. Pomysł jest śmieszny.
John Doucette

Nie twierdzę, że osobiście wierzę w nieśmiertelność w ciągu 10 lat. Chcę tylko wyjaśnić, że tak zwane projekty „emulacji całego mózgu”, takie jak projekt EU Human Brain Project (1 miliard USD), inicjatywa BRAIN w USA (łącznie 4,5 miliarda USD) i China Brain Project (200 milionów USD) mają osobliwość jako ich cel. Rząd nie wydałby tak wiele na badania, jeśli mają wątpliwości, że Nanoboty są możliwe.
Manuel Rodriguez

@ManuelRodriguez Na pewno by. Nawet nieudany projekt, który kosztuje dużo pieniędzy, może prowadzić do bardzo cennych badań.
las

3

Istnieje co najmniej jeden bardzo ważny i poważny naukowiec AI, który najwyraźniej wierzy w stworzenie prawdziwej sztucznej inteligencji ogólnej i być może superinteligencji: Jürgen Schmidhuber, który jest współautorem LSTM , pośród wielu innych ważnych wkładów. W rzeczywistości niedawno założył NNAISENSE w tym ostatecznym celu, jakim jest zbudowanie sztucznej inteligencji ogólnej ogólnego przeznaczenia. W swoim przemówieniu Kiedy kreatywne maszyny wyprzedzają człowieka , na TEDxLausanne Schmidhuber mówi o osobliwości (znanej również jako omega ). Zobacz także jego artykuł internetowy Czy historia jest zbieżna? Jeszcze raz? (2012) lub artykuł2006: Świętujemy 75 lat sztucznej inteligencji - historia i perspektywy: kolejne 25 lat (2007).


To prawda, ale zdecydowanie jest w mniejszości badaczy AI w tej sprawie. To prawda, że ​​Schmidhuber ma dobre kwalifikacje, ale nie sądzę, aby większość badaczy AI traktowała jego poglądy na poważnie.
John Doucette

1
@JohnDoucette Tak, zgadzam się z tobą. Chciałem tylko zwrócić uwagę na ten interesujący wyjątkowy przypadek.
nbro

0

Aby znaleźć się na tej samej stronie, należy podać odniesienia do „osobliwości technologicznej”, ponieważ obejmuje ona wiele dziedzin (matematyka, statystyka, filozofia nauki, epistemologia, socjologia, polityka, ekonomia, by wymienić tylko kilka).

Zasadniczo, gdy weźmie się pod uwagę koncepcje związane z przym + ai (gdzie przym = {słaby, silny, pełny, wąski, ...}), powiew spekulacji jest dość duży i in fieri , więc jako programista (gdzie dla programisty I zakładam, że pracujesz nad problemami związanymi z kodowaniem, a nie kierownikiem projektu w google x itp.) Nie martwiłbym się, chyba że podczas przerwy napijesz się herbaty z kolegami.

Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.