Dlaczego gra w badania i rozwój koncentruje się na alokacji zasobów?
Badając pozorną obsesję na punkcie grania w gry, gdy naukowcy próbują symulować części ludzkich umiejętności rozwiązywania problemów, ortodoksja poglądów Johna McCarthy'ego (1927–2011) może być myląca.
Odchylenie redakcyjne publikacji i popularne tematy science fiction mogą ukryć główne siły, które prowadzą do pojawienia się obsesji na punkcie rozwijania zwycięskiego oprogramowania do gier planszowych. Przy badaniu alokacji funduszy i zasobów ludzkich w wielu dziedzinach badań i rozwoju wywiadu konieczne jest pewne podłoże historyczne, aby obejść zniekształcenia typowe dla odpowiedzi na pytania w tej sieci społecznej.
Tło historyczne
Umiejętność przebywania poza czasem i sposobem myślenia innych okresów jest pomocna podczas analizowania historii, w tym historii naukowej i technologicznej.
Pomyśl, że wizja McCarthy'ego nie była ortodoksyjna w jego czasach. Szybko stał się ortodoksyjny z powodu szeregu pojawiających się trendów w myśli o automatyzacji wśród naukowców i matematyków w czasach bezpośrednio po zachodniej industrializacji. Myślenie to było naturalnym przedłużeniem mechanizacji przemysłu drukarskiego, tekstylnego, rolniczego i transportowego oraz wojny.
W połowie XX wieku niektóre z tych trendów połączyły się, aby konceptualizować komputer cyfrowy. Inni stali się ortodoksyjni w społeczności ludzi badających aspekty inteligencji za pośrednictwem systemów cyfrowych. Zaplecze techniczne obejmowało prace teoretyczne i prace elektromechaniczne, z których część zyskała już sławę publiczną. Ale ogólnie było to albo tajne, albo zbyt abstrakcyjne (a przez to niejasne), aby uznać je za przedmiot interesu bezpieczeństwa narodowego w tym czasie.
- Teoria cybernetyki, w dużej mierze opracowana przez Norberta Wienera (1894–1964)
- Prace nad automatyzacją arytmetyki (rozszerzenie teorii George'a Boole'a i kalkulatora Blaise'a Pascala, przy czym pierwotne finansowanie pochodziło z wojska USA w interesie kierowania bronią przeciwlotniczą poprzez obliczanie prawdopodobnych trajektorii wroga samolotu i określanie współrzędnych sferycznych w celu stworzenia prawdopodobnego interesującego trajektoria balistyczna
- Często odrzucał pracę Alonso Church (1903 - 1995) nad rachunkiem lambda, co doprowadziło do idei programowania funkcjonalnego, kluczowego aspektu pojawienia się LISP w Cambridge, które McCarthy wykorzystał do wczesnych eksperymentów AI
- Narodziny teorii informacji, przede wszystkim dzięki pracy Claude'a Shannona (1916 - 2001), finansowanej przez Bell Labs w celu zautomatyzowania przełączania komunikacji
- Wczesna praca kryptoanalizacyjna doktoranta Kościoła, Alana Turinga, finansowana w całości przez Siły Sprzymierzone, której celem jest R&D polegające na pokonaniu urządzenia do szyfrowania Enigmy, aby siły nazistowskie mogły zostać zatrzymane przed całkowitą anihilacją Londynu i innych sojuszniczych celów
- Praca nad Johnem von Neumannem (1903 - 1957) w kierunku scentralizowania implementacji dowolnej logiki logicznej wraz z arytmetyką liczb całkowitych w jednej jednostce (obecnie zwanej CPU) i zapisaniem programu kontrolującego implementację w elektronicznych przerzutnikach wraz z danymi do przetworzenia i wyniki (ta sama ogólna architektura implikowana przez prawie wszystkie współczesne urządzenia komputerowe)
Wszystko to były koncepcje otaczające wizję automatów, symulacja funkcjonalnych aspektów neurologii ssaków. (Małpa lub słoń może z powodzeniem zaplanować i wykonać atak muchy, ale mucha nie jest w stanie zaplanować i wykonać ataku na małpę lub słonia).
Eksperymentowanie nad inteligencją i jej symulacją poprzez manipulację symboliczną przy użyciu nowego języka programowania, LISP, było głównym celem Johna McCarthy'ego i jego roli w tworzeniu laboratorium MIT AI. Ale cokolwiek ortodoksja istniała w oparciu o reguły (systemy produkcyjne), sieci neuronowe i algorytmy genetyczne, w dużej mierze urozmaicało chmurę pomysłów, które sprawiają, że termin ortodoksja jest nieco mglisty. Oto kilka przykładów.
- Richard Stallman zrezygnował z MIT AI Lab i rozpoczął filozoficzne odejście od wielu filozofii ekonomicznych, które dominowały w tym okresie. Rezultatem było oprogramowanie GNU i LINUX, a następnie otwarty sprzęt i wspólne zasoby kreatywne, koncepcje w dużej mierze sprzeczne z filozoficzną orientacją tych, którzy finansowali siedliska sztucznej inteligencji.
- Wiele zastrzeżonych (a zatem poufnych dla firmy) systemów wykorzystuje metody bayesowskie lub komponenty adaptacyjne, które bardziej wynikają z pracy Norberta Wienera niż wszystko, co w latach 70. było uważane za główny nurt badań nad sztuczną inteligencją.
Narodziny teorii gier
Kluczowym wydarzeniem, które najbardziej odpowiada na pytanie w tej paradzie wydarzeń historycznych, jest inne dzieło von Neumanna. Jego książka Game Theory, napisana wspólnie z Oskarem Morgensternem, jest być może najsilniejszym czynnikiem wśród historycznych warunków, które doprowadziły do utrzymywania się Go i Chess jako scenariuszy testowych dla oprogramowania do rozwiązywania problemów.
Chociaż było wiele wcześniejszych prac nad wygraną w szachach lub w Go, nigdy wcześniej nie było tak matematycznego traktowania i prezentacji tak atrakcyjnych jak teoria gier.
Uprzywilejowani członkowie społeczności naukowej doskonale zdawali sobie sprawę z sukcesu von Neumanna w podnoszeniu temperatury i ciśnienia materiału rozszczepialnego do masy krytycznej oraz jego pracy w uzyskiwaniu klasycznej termodynamiki z teorii kwantowej. Podstawa matematyki, którą przedstawił w teorii gier, została szybko zaakceptowana (przez niektóre z tych samych osób, które sfinansowały badania w MIT) jako potencjalne narzędzie predykcyjne dla ekonomii. Prognozowanie ekonomii było pierwszym krokiem do jej kontrolowania.
Teoria spotyka filozofię geopolityczną
Dominującą filozofią, która kierowała polityką Zachodu w tym okresie, była Manifest Destiny, w gruncie rzeczy fatalistyczna wizja Nowego Porządku Świata, której głową byłby rząd USA. Odtajnione dokumenty wskazują, że jest wysoce prawdopodobne, że ówcześni przywódcy postrzegali dominację ekonomiczną osiągniętą dzięki zastosowaniu teorii gier jako znacznie mniej ryzykowną i kosztowną niż podbój wojskowy, a następnie utrzymanie baz operacyjnych (garnizonów zaawansowanych technologii) w pobliżu każdego zaludnionego obszaru za granicą .
Wysoce nagłośnione wyzwania związane z opracowaniem automatów Chess and Go to po prostu dragi, które korporacje i rządy wykorzystują jako pierwsze ograniczenie w pozyskiwaniu zasobów ludzkich. Wyniki gry są jak wznowienia. Zwycięski program do gier to dowód na istnienie umiejętności programistycznych, które prawdopodobnie odniosłyby sukces w rozwoju ważniejszych gier, które przenoszą miliardy dolarów lub wygrywają wojny.
Ci, którzy potrafią napisać zwycięski kod Chess lub Go, są uważani za aktywa o wysokiej wartości. Finansowanie badań gier jest postrzegane jako sposób na identyfikację tych zasobów. Nawet przy braku natychmiastowego zwrotu z inwestycji, identyfikacja tych aktywów, ponieważ można je schować w think tankach, aby zaplanować dominację nad światem, stała się podstawową kwestią przy przydzielaniu funduszy na badania.
Powolne i szybkie ścieżki zwrotu z inwestycji
W przeciwieństwie do tego myślenia geopolitycznego, kolejnym czynnikiem jest poszukiwanie prestiżu instytucjonalnego ze strony sprytnego programisty lub zespołu. W tym scenariuszu poszukiwano jakiegokolwiek postępu w symulacji inteligencji, który może potencjalnie poprawić geometrię w niektórych ważnych zastosowaniach przemysłowych lub wojskowych.
Na przykład programy takie jak Maxima (prekursor aplikacji matematycznych do rozwiązywania problemów, takich jak Mathematica) zostały sfinansowane z nadzieją na rozwój matematyki za pomocą obliczeń symbolicznych.
Ta droga do sukcesu koncepcyjnie opierała się na determinizmie jako nadrzędnej filozofii naturalnej. W rzeczywistości było to uosobienie determinizmu. Zaproponowano, że jeśli komputer może nie tylko wykonywać arytmetykę, ale także rozwijać matematyczne twierdzenia o nadludzkiej złożoności, modele ludzkich dążeń można sprowadzić do równań i rozwiązać. Przewidywalność dla wielu różnych ważnych zjawisk gospodarczych, wojskowych i politycznych mogłaby następnie zostać wykorzystana w procesie decyzyjnym, umożliwiając znaczny zysk.
Ku zaskoczeniu wielu, powodzenie programu Maxima i innych programów matematycznych było bardzo ograniczone pod względem pozytywnego wpływu na zdolność do wiarygodnego przewidywania wydarzeń gospodarczych i geopolitycznych. Pojawienie się teorii chaosu wyjaśniło dlaczego.
Pokonanie ludzkiego mistrza programem okazało się być w zasięgu badań i rozwoju XX wieku. Wykorzystanie oprogramowania do eksperymentowania w różnych podejściach informatycznych do wygrania gry było możliwe i dlatego było bardziej atrakcyjne dla instytucji jako sposób na zdobycie prestiżu, podobnie jak zwycięska drużyna koszykówki.
Nie zapominajmy o odkryciu
Czasami pozory są wprost przeciwne do rzeczywistości. Różne wyżej wspomniane zastosowania maszyn myślących nie zostały zapomniane, a koszt czasu i pieniędzy potrzebnych do symulacji aspektów umiejętności ssaków nie straci środków na rozwój automatu do gier planszowych.
Technologia jest w dużej mierze zajęta rozwiązywaniem problemów komunikacyjnych, wojskowych, geopolitycznych, ekonomicznych i finansowych, które znacznie przekraczają złożoność gier takich jak Chess and Go. Teoria gry obejmuje elementy przypadkowych ruchów wykonywanych przez osoby niebędące graczami już w początkach. Dlatego obsesja na punkcie Chess and Go jest jedynie sygnaturą faktycznego skupienia się na finansowaniu i działalności w wielu obszarach symulacji inteligencji.
Oprogramowanie, które może grać w szachy lub szachy, nie jest wdrażane ani na komputerach do globalnego modelowania NSA, ani na maszynach indeksujących Google. Wielkie dolary są wydawane na rozwój tego, co IS zostało rozmieszczone w takich miejscach.
Nigdy nie zobaczysz szczegółów ani nawet przeglądu tych prac badawczo-rozwojowych opisanych online, z wyjątkiem osób, które z jakichś ważnych powodów naruszają poufne umowy firmowe lub dopuszczają się zdrady.