Czy istnieje powód do początkowej nadmiernej pewności naukowców i inżynierów pracujących nad sztuczną inteligencją w latach sześćdziesiątych?


21

Właśnie rozpocząłem zajęcia AI i Data Mining oraz książkę. Programowanie aplikacji AI zaczyna się od przeglądu historii AI. Pierwszy rozdział dotyczy historii AI od lat 40. XX wieku do chwili obecnej. Wystąpiło jedno szczególne stwierdzenie:

[W latach 60-tych] inżynierowie AI zawyżali przychody i nie dostarczali ...

Co było przyczyną nadmiernej pewności siebie? Czy to z powodu matematycznych modeli prognostycznych pokazujących, że przełom nastąpił tuż za rogiem, czy z powodu stale rosnącej możliwości sprzętowej, z której można skorzystać?


4
Problem Hubrisa jest uniwersalny. Przeczytaj „Fooled by Randomness”, aby uzyskać więcej informacji. en.wikipedia.org/wiki/Fooled_by_Randomness
Job

1
Jeśli twoja biblioteka ma taką kopię, artykuł Douga Lenata „Dlaczego wydaje się, że AM i EURISKO działają”. Sztuczna inteligencja 23 (3): s. 269–294. być może warto przeczytać. (AM i EURISKO były programami własnymi Douga Lenata). Jest to jednak dobrze po latach 60. Osobiście uważam, że było tak, ponieważ niektóre wczesne projekty były bardzo udane, więc wyglądało na to, że wiele problemów można rozwiązać za pomocą prostych technik. Niestety, tak się nie stało.
MZB

7
Problem był trudniejszy niż oczekiwano. Znacznie trudniej.

8
@ Thorbjørn Nie wiem dlaczego, ale mogę sobie wyobrazić, że został napisany na marginesie zeszytu naukowca inżyniera tuż przed opuszczeniem biura i osiągnięciem punktu krytycznego, tracąc wszelki rozsądek.
Thomas Owens

3
Nie warto udzielać odpowiedzi, ale należy również spojrzeć na kontekst społeczny tamtych czasów. Świat zachodni, zwłaszcza Stany Zjednoczone, przeszedł II wojnę światową i opracował wiele technologii, które rozwiązały wiele trudnych problemów. Panowało ogólne poczucie, że moglibyśmy rozwiązać każdy problem, który postanowiliśmy rozwiązać. Nazwanie go arogancją lub pychą jest prawdopodobnie nieco przesadzone; Poszłabym bardziej na coś nieokiełznanego optymizmu.
Blrfl,

Odpowiedzi:


30

Moim osobistym zdaniem jest to spowodowane pychą . W latach 60. i 70. istniało kilka potężnych ego chodzących po korytarzach MIT, Stanford itp. Po prostu wiedzieli , że załamali ten problem. Dobrze.

Chociaż w tamtych czasach nie byłem częścią tego wszechświata, w połowie lat 80. pracowałem nad wyszukiwaniem podobieństw. Nasza praca początkowo opierała się na badaniach przeprowadzonych przez Gerarda Saltona w Cornell w latach 60. XX wieku, które wykorzystywały wektory atrybutów do reprezentowania dokumentów i zapytań. W rzeczywistości było to użyteczne podejście, ale kiedy sieci neuronowe stanęły w płomieniach (przynajmniej dopóki nie odkryły propagacji wstecznej ), włączono do nich pracę Saltona z powodu podobieństw (zamierzonych słów) do sieci neuronowych. Próbował zrobić coś innego, ale było kilka lat, w których był połączony z resztą.

Za każdym razem, gdy ktoś wymyśli rozwiązanie dla obecnego Brick Wall ™, bardzo się ekscytuje i ogłasza AI jako rozwiązany problem. Tyle że nie. Ponieważ za tym ceglanym murem jest inny. Cykl ten powtarza się w kółko i wciąż, i to nie tylko w AI. Mocno wierzę, że wszyscy przyszli informatycy i inżynierowie powinni być zobowiązani do wzięcia udziału w semestrze historii Historii Komputerów, ze szczególnym naciskiem na liczbę Next Big Things ™, które wzrosły jak rakiety ... a potem zrobiły bardzo duży krater w dnie doliny.

Dodatek: Weekend w Dzień Pracy spędziłem ze starym przyjacielem i trochę o tym rozmawialiśmy. Kontekst - zastanawianie się, co to znaczy, jak go reprezentować, a następnie jak go używać - okazał się być prawdopodobnie największą przeszkodą, którą należy usunąć. Im dłużej na to patrzysz, tym większa staje się przeszkoda. Ludzie są zdolni do niesamowitego, niemal natychmiastowego, częściowego dopasowywania „tego, co się dzieje”, do ogromnego zbioru „tego, co zdarzyło się wcześniej”, a następnie łączenia tej wiedzy z przeszłości z obecną sytuacją, aby stworzyć kontekst, w którym zrozumienie może prowadzić do działania. Na przykład możemy użyć go jako potężnego filtra „rzeczy, które możemy / nie możemy zignorować”, gdy świstamy w dół do klasy Waldo przy 60 MPH z ruchem 4 pasy od siebie i oddzielone tylko 3 lub 4 stopami (lub mniej!).

Na widmie stuff > data > information > knowledge > understanding > judgementJesteśmy wciąż usiłując dostać się do etapów informacji / wiedzy, a nawet , że jest ograniczony do bardzo ograniczonych domenach dyskursu .


1
AI jest jak pasmo górskie. Jesteśmy gdzieś u podnóża i widzimy szczyt, na który chcemy się wspinać, ale nie mamy pojęcia, co jest za następnym wzgórzem ani ile jeszcze wzgórz pozostało, aby się wspiąć, aby osiągnąć nasz cel.
CdMnky,

1
IMO, nie może się to stać bez naprawdę wyrafinowanego, bardzo ogólnego rozpoznawania wzorców. Samo czytanie o wielu rzeczach, które próbowali, wydało mi się naiwne lub być może nadmiernie leworęczne, co wydaje mi się, że programowanie zdominowało w ogóle, przynajmniej kiedy zdałem sobie z tego sprawę w latach 80.
Erik Reppen

17

Po prostu, masowo nie docenili skali problemu, szczególnie w przypadku eksplozji kombinatorycznej. Wiele rozwiązań AI działa dobrze dla „zabawkowych” próbek, ale zawodzi mocno, gdy skaluje się do problemów na poziomie ludzkim.

Prawdopodobnie byli też po prostu niedoświadczeni. Sztuczna inteligencja jako dziedzina została (względnie) dopiero wynaleziona pod względem praktycznych zastosowań, więc nikt nie miał znaczącego doświadczenia w stosowaniu teorii do czegokolwiek.


Nie wiem zbyt wiele na ten temat, ale zawsze myślałem, że wiele funkcji Google opiera się na sztucznej inteligencji. Czy moje złe zrozumienie jest w tej sprawie?
user10326,

@ user10326: Są. Ale nie rozumiem, co to ma wspólnego z omawianym tematem - Google nie istniało przez 30 lat po omawianym okresie.
DeadMG,

Ok, ale mówię o tym, że oni (Google) wykorzystali sztuczną inteligencję w praktyczny sposób, prawda? Mam na myśli, że może to nie być to, co wtedy „przewidywali”, ale nadal można oferować funkcje Google za pomocą innych niż Język AI?
user10326

4
@ user10326, jak rozumiem, Google używa systemu bardzo zaawansowanych zgadywania. Zasadniczo analizuje góry aktywności użytkowników i próbuje ekstrapolować wzorce. Oryginalna wizja sztucznej inteligencji polegała na stworzeniu prawdziwego cyfrowego umysłu, który działałby jak ludzki mózg. W rzeczywistości brak porozumienia co do tego, co stanowi sztuczną inteligencję, jest jedną z wad tego pola.
jiggy

@ user10326: Nadal nie rozumiem znaczenia.
DeadMG

15

Mogę wymyślić kilka powodów.

Sztuczna inteligencja odniosła tak szybki sukces z niektórymi problemami związanymi z zabawkami rozwiązanymi na przełomie lat 50. i 60., które przeceniły to, co udało im się osiągnąć. ELIZA i SHRDLU oszołomili ludzi, mimo że są stosunkowo prostymi programami. Niestety, duża część tego, co sprawiło, że te programy były oszałamiające, była po prostu nowością. Dzisiaj nikt nie jest pod wrażeniem rozmowy z ELIZĄ, ale w tamtym czasie ludzie uważali, że jest ona prawie cudowna.

Ponadto, ponieważ problemy są „rozwiązywane” lub przynajmniej stają się możliwe do rozwiązania, ludzie nie uważają ich za sztuczną inteligencję. Optymalizacja kodu była kiedyś problemem AI. Nauka statystyczna przekształciła się w sztuczną inteligencję w jej własną specjalizację i wraz z nią rozpoznawała mowę. Gdy eksploracja danych stanie się głównym nurtem, utraci powiązanie z AI. Z czasem AI zapomina o swoich sukcesach i utknie, trzymając się nierozwiązywalnych i nierozwiązywalnych problemów, i ostatecznie wygląda jak flop.


5
Dobra uwaga na temat „jeśli to już nie jest magia (3), to nie jest już sztuczna inteligencja”.
Piskvor,

Ale czy sztuczna inteligencja uczenia się i eksploracji danych nie jest w zasadzie?
user10326

@ user10326, z pewnością większość referencji nadal klasyfikuje uczenie maszynowe jako gałąź sztucznej inteligencji, ale mam wrażenie, że wielu ludzi pracujących w ML skrzywiłoby się z tobą, gdybyś powiedział im, że pracowali w sztucznej inteligencji. Myślę, że powiedzieliby ci, że pragmatycznie ML jest gałęzią statystyki i nie zapewnia żadnego szczególnego wglądu w inteligencję, sztuczną lub inną.
Charles E. Grant,

12

Myślę, że ludzie w latach 60-tych wykorzystali własne ludzkie doświadczenia, aby podzielić problemy na „trudne problemy” i „łatwe problemy”: rzeczy takie jak wygrywanie w szachy, rozwiązywanie logicznych zagadek, rozwiązywanie równań matematycznych wydają się nam trudne dla ludzi. Rzeczy takie jak rozumienie języków naturalnych lub znajdowanie konturów obiektów na obrazie wydają się łatwe, ponieważ nasz mózg wykonuje całą pracę bez świadomego wysiłku. Kiedy próbujemy wyjaśnić, jak to robimy, wymyślamy proste wyjaśnienia, takie jak: „angielskie zdania zawsze mają strukturę podmiot-predykat-obiekt, w którym podmiot może być prostym terminem lub frazą ...” lub „Jestem szukanie krawędzi i łączenie ich z granicami obiektów ". Dziś wiemy, że rzeczy nie są takie proste, ale tylko dlatego, że wypróbowano wszystkie proste (i wiele nie tak prostych) rozwiązań

Poza tym ten błąd nie zaczął się w latach 60-tych: trwają wieki badań nad rozwiązaniem „trudnych problemów” (heurystyka, teoria gier, teoria decyzji, matematyka, logika itp.), Ale nie jestem pewien, czy ktokolwiek kiedykolwiek zadał sobie trud zbadania, w jaki sposób można analizować języki naturalne przed latami pięćdziesiątymi.

I nawet dzisiaj możesz regularnie znaleźć pytania na temat przepełnienia stosu, gdzie ludzie pytają, jak mogą parsować angielskie zdania, oszacować wiek osoby na obrazie, ocenić, czy obraz jest „bezpieczny do pracy” lub czy dwa obrazy pokazują to samo . Nie sądzę, że ludzie, którzy te pytania cierpią zbyt dużo pychy i arogancji: Problemy te tylko wydają się tak proste, to jest niewiarygodne, że to nie prosty algorytm, aby je rozwiązać.


3
Uważam, że jest to poprawna odpowiedź, a nie teoria hubrisa, która wydaje się mocno wspierana na tej stronie. Rzeczy, które naszym zdaniem były niezwykle trudne dla ludzi, okazały się stosunkowo łatwe dla maszyn, z drugiej strony niewiarygodnie proste rzeczy dla ludzi są bardzo trudne dla maszyn.
AlexC

11

Sztuczna inteligencja ma długą historię rozczarowań, ale myślę, że wielu krytyków zbyt często upraszcza to, co się stało, na przykład w twoim cytacie „inżynierowie z lat 60. zbyt zawyżeni i niedostarczeni”.

W latach 60. AI było domeną względnej garstki badaczy (dziedzina ta nie była jeszcze wystarczająco rozwinięta, aby nazwać ją inżynierią), głównie na uniwersytetach, a bardzo niewielu z nich było znakomitymi programistami.

Nagła dostępność maszyn komputerowych w latach 50. XX wieku doprowadziła do wielkich oczekiwań dotyczących automatyzacji, szczególnie w tłumaczeniu maszynowym języka naturalnego, grze w szachy i podobnych problemach. Być może znajdziesz pewne rzeczywiste prognozy sukcesu z tamtych dni, ale obietnice nieuchronnie nadeszły, ZANIM ktoś dogłębnie rozwiąże jeden z tych problemów. (Lub niesłusznie zakładali, że jeden sukces gwarantuje inny, na przykład spodziewając się, że będą mogli wdrożyć dobrą grę w szachy po tym, jak Samuel odniósł tak duży sukces w szachach ).

Uważaj też na wszelkie roszczenia dotyczące „powiedzieli”, „czuli”, „pomyśleli” itd .; opinie retrospektywne (takie jak ta!) są łatwe do rozpowszechnienia, podczas gdy udokumentowane dowody rzeczywistych prognoz „ekspertów” (tych, którzy faktycznie próbowali rozwiązać dany problem) mogą być znacznie trudniejsze do znalezienia.

Nadwyżka i niedostarczenie zawsze było objawem rozwoju oprogramowania, niezależnie od konkretnej dziedziny, w której programowanie jest stosowane. Główną trudnością związaną z AI jest to, że nietrywialne problemy przekraczają możliwości większości inżynierów. Na przykład, chociaż odpowiedź Charlesa E. Granta kategoryzuje ELIZA i SHRDLU jako „stosunkowo prostą”, powiedziałbym, że to prawda tylko w przypadku ELIZA (którą większość studentów pierwszego roku programowania mogłaby prawdopodobnie wdrożyć bez większych trudności). Z drugiej strony, SHRDLU to duży, niezwykle wyrafinowany program, który większość programistów miałaby bardzo trudno wymyślić, nie mówiąc już o jego wdrożeniu. Rzeczywiście, dwa zespoły studentów uniwersytetów nie mogły nawet w pełni uruchomić kodu źródłowego, a umiejętności podobne do SHRDLU są nadal trudne do znalezienia w dzisiejszych czasach, ponad 40 lat później.

Ponieważ sztuczna inteligencja jest prawdopodobnie jednym z najmniej zrozumiałych i najtrudniejszych problemów, w których można zastosować komputery, ogólnie rzecz biorąc, powiedziałbym, że postęp w sztucznej inteligencji był na ogół równy dla kursu. Nadal są wysokie oczekiwania , a nasza szybkość sprzętowa i możliwości znacznie wzrosły od lat 60., ale powiedziałbym, że umiejętności inżynierów i rozumienie sztucznej inteligencji nie poprawiają się tak bardzo, więc święty graal, jak zdanie testu Turinga, wciąż jest prawdopodobnie daleko, a nadmierne obietnice i niedostarczanie zapewne będą trwały jeszcze przez jakiś czas.


Re: Test Turinga: Czytałem o programie asystenta nauczania Georgia Tech, którego większość uczniów nie może powiedzieć, że to „AI”. Być może nie szukali tego, ale z pewnością na nich nie wyskoczyli. Myślę, że ogólna rozmowa wkrótce zostanie rozwiązanym problemem. Ostatnio widziałem, jak ktoś gra z nową rzeczą Google Echo (jakkolwiek to się nazywa). Żałosne, ale jak długo to pozostanie, gdy miliony małp karmią go próbkami rozmowy?

5

Myślę, że powodem była arogancja. Gdybym był inżynierem w latach 60. pracującym nad sztuczną inteligencją, sam byłbym dość arogancki.

Myślę, że aby osiągnąć wielkie rzeczy, trzeba sięgać po wielkie rzeczy. Zatem nadmierne promowanie nie musi być złą rzeczą, o ile nie przekroczysz limitu. Dzisiejsi naukowcy obiecują rzeczy, w które nie wierzę, że będą możliwe, ale jeśli nie sięgną po to, stracimy to, co zostanie osiągnięte.


4

Dotarcie gdzieś może być bardzo trudne, jeśli nie wiesz, dokąd zmierzasz.

Gdybyśmy mieli jakieś rozsądne wyjaśnienie, czym jest inteligencja i jak ona działa, być może mielibyśmy szansę skutecznie ją naśladować. Test Turinga jest fascynujący i użyteczny, ale prawdopodobnie nie wystarcza, aby pomóc nam w modelowaniu prawdziwej inteligencji. Z tego, co wiemy, „model” inteligencji może być niewystarczający dla prawdziwej inteligencji.


3
+1 za pierwsze zdanie.
Mason Wheeler,

Może nie jesteśmy wystarczająco inteligentni, aby zrozumieć inteligencję, a nawet jej model. Ale moglibyśmy zbudować kiepski model, a następnie

2

Powiedziałbym, że mniej więcej to samo dzieje się teraz z OWL. Rozejrzyj się i spróbuj narysować podobieństwa.

Brzmi dobrze na papierze, wydaje się działać dobrze w przypadku problemów z zabawkami, staje się niezwykle skomplikowany w przypadku większości rzeczywistych danych.


Co to jest SOWA? Ostwestfalen-Lippe?
sleske,


2

Oprócz podanych dobrych odpowiedzi, dwie uwagi:

Niektóre cytaty z tego dnia wydają się sugerować, że wielu badaczy myślało, że trywialne rozwiązania mogą być skalowane po zaprojektowaniu szybszych komputerów. W przypadku niektórych systemów uczenia się było to bardzo prawdziwe, ale myślę, że w odniesieniu do tego, o czym mówi PO, nie poprawiło się to na większą skalę.

Badacze w tym czasie mieli bardzo niską ocenę złożoności ludzkiego umysłu (koncentrują się na ideach takich jak test Turinga, idei, że ludzie używają tylko niewielkiego procentu swojego mózgu, itp.). AI na poziomie prostego zwierzęcia zostało osiągnięte za pomocą pewnych środków, gdy rzeczy się powiększyły, ale skok do AI na poziomie ludzkim był znacznie większy niż oczekiwano. Doprowadziło to niektórych naukowców do nauki systemów dziecięcych i innych symulacji opartych na wzroście / ewolucji jako próby wypełnienia tej luki.


Prosty mózg (owad, ryba, gad) dobrze radzi sobie z zachowaniem , ale rozumowanie to inny problem. Myślę więc, że sztuczna inteligencja wkrótce będzie mogła rozmawiać na temat problematycznej dziedziny, ale nie będzie miała nic znaczącego, co mogłaby się przyczynić lub była w stanie rozwiązać nowe problemy. Ciekawym obszarem jest to, że małe mózgi (ptaki) mogą robić złożone rzeczy, takie jak reagować na konwersację i wymyślać zabawne rzeczy (papuga, która naśladowała dźwięk dzwonka do drzwi, aby zobaczyć, jak ludzie wchodzą do drzwi, a następnie wydała śmiech).

1

Jednym z powodów był sukces, jaki mieliśmy WIĘCEJ w latach sześćdziesiątych. Właśnie wystartowaliśmy w kosmos i wkrótce wylądujemy na Księżycu. Właśnie odkryliśmy lekarstwa na polio i inne poważne choroby.

Ale „sztuczna inteligencja” była innym zwierzęciem niż problemy „inżynieryjne”, z jakimi się wtedy zmagaliśmy. Był to problem „rozumowania”, a nie „mechanicznego”.

Krótko mówiąc, AI (w latach 60.) był pomysłem „którego czas jeszcze nie nadszedł”. W kolejnych dziesięcioleciach wymagało to większego rozwoju, zanim stało się tak samo dostępne, jak inne problemy.


0

Innym powodem może być to, że opanowanie komputera / pisanie programów komputerowych daje małym maniakom kontroli poczucie wszechmocy - w rzeczywistości tworzy się małe wszechświaty, choć zamknięte.

To plus brak edukacji filozoficznej / epistemologicznej i naiwne zaufanie do prostych wyjaśnień, takich jak „inteligencja jest niczym innym…” może prowadzić do pychy.

Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.