Mogę powiedzieć, że wśród badaczy AI, z którymi współpracuję, o wiele bardziej powszechne jest postrzeganie go jako dzikiej spekulacji niż jako ustalonego faktu.
Potwierdzają to badania ankietowe badaczy AI , z których 80% uważa, że silne formy AI pojawią się „za ponad 50 lat” lub „nigdy”, a zaledwie kilka procent uważa, że takie formy AI są „bliskie”.
Deweloperzy oprogramowania to nie to samo, co badacze AI, i odkryłem, że mit Singularity jest znacznie bardziej rozpowszechniony wśród programistów. Ma to fajny charakter: komputery stają się coraz szybsze, w pewnym momencie będą szybsze niż mózgi, w tym momencie po prostu symulujemy mózgi. Niedługo potem symulujemy coś lepszego niż mózg.
Podejrzewam, że powody, dla których badacze AI są mniej optymistyczni, są zakorzenione w fakcie, że nadal nie mamy dobrego zrozumienia ludzkiej inteligencji, a nawet wystarczającej wiedzy mózgu, aby ją zasymulować. Na przykład w ciągu ostatnich dwóch tygodni odkryliśmy nieznane wcześniej typy komórek mózgowych . Daje to (prawidłowe) wrażenie, że nawet gdybyśmy mieli wystarczająco szybki komputer, wcale nie jesteśmy blisko możliwości dokładnego symulowania ludzkiego mózgu. Naprawdę nie wiemy, czym jest ludzki mózg.
Nawet jeśli o tym wiemy, symulacje są z konieczności stratne. Możemy nie mieć dobrych technik symulacji. Nawet jeśli mieliśmy dobre techniki, możemy symulować mózg i odkryć, że nasza symulacja nie zachowuje się zgodnie z oczekiwaniami z powodów, których nie rozumiemy. Jest to bardzo prawdopodobne przy symulacji nowych systemów. W pewnym sensie zwolennicy Osobliwości przypominają ludzi przewidujących, że kontrola pogody była blisko w latach 40. XX wieku. W końcu mogliśmy już symulować proste wzorce pogodowe i generować prognozy, które działały. O ile bardziej skomplikowane może być generowanie doskonałych prognoz?