Co wiemy
Według strony Banku Światowego: „Obecnie na świecie jest około 200 milionów studentów wyższych uczelni, w porównaniu z 89 milionami w 1998 roku”. Co najmniej 1 na 100 musiał, jako wymaganie matematyczne, opracować dowód na twierdzenie i żyć co najmniej 40 lat później.
Chociaż istnieje co najmniej 20 milionów sieci neuronowych, które mogą udowodnić twierdzenie, brakuje im przykładów, które odpowiedziałby twierdząco. Te sieci neuronowe są biologiczne, a nie sztuczne, i w większości udowodniły one wcześniej udowodnione twierdzenia, nie hipotezę Collatza ani hipotezę Riemanna.
Co niektórzy wierzą
Ci, którzy wierzą, że do głębokiego uczenia Q i urządzeń opartych na uwadze dołączą inne konstrukcje systemów uczenia się, dopóki zdolności ludzkiego mózgu nie zostaną zasymulowane i być może przekroczone, prawdopodobnie uwzględnią twierdzenie jako jedną z tych ludzkich możliwości. Prawdopodobnie zadeklarują logikę predykcji i wnioskowanie jako kolejną złożoną funkcję poznawczą, która zostanie osiągnięta w sztucznych systemach.
Ci, którzy uważają, że niektóre zdolności są nasycone ludźmi i są zarezerwowanymi możliwościami, mogą zadeklarować logikę predykcji i wnioskowanie jako zastrzeżone tylko dla ludzi.
Aktualny stan postępu
Nie ma artykułów akademickich wskazujących na możliwość udowodnienia nawet najprostszych dowodów za pomocą logiki predykcyjnej i wnioskowania. Możliwe, że rząd lub przedsiębiorstwo prywatne osiągnęło pewien poziom sukcesu, ale nie zostało to ujawnione.
Pomysł, że sztuczne sieci, jeśli zostaną znacznie rozwinięte, mogą przewyższyć systemy produkcyjne, systemy AI oparte na produkcjach lub regułach, w obszarach o największej skuteczności, został zaproponowany na wczesnym etapie rozwoju AI. Było to wtedy kwestionowane i teraz dyskutowane, jednak argumenty nie są matematyczne, więc nie ma wyraźnych przesłanek, że jest to niemożliwe.
Z pewnością inne aspekty poznawcze ludzkiej myśli są ważnymi celami badań nad AI. Dialog, zautomatyzowana edukacja, planowanie, analiza strategiczna i pilotowanie pojazdów to wszystkie aspekty wyższej myśli, które wymagają więcej niż DQN, a podejście sieciowe oparte na uwadze może teraz przynieść, ale wysiłki badawcze w tych obszarach są znaczne i dobrze finansowane.
Potencjalne podejście
Badania nad logicznymi zdolnościami poznawczymi powinny rozpocząć znane już dowody, znacznie prostsze niż przypuszczenia wspomniane w pytaniu. Na przykład udowodniono, że suma dwóch nieujemnych liczb całkowitych musi być kolejną liczbą całkowitą nieujemną. W rachunku predykatów może być reprezentowany jako ciąg znaków.
∀ a ∈ C., b ∈ C.: s = a + b⟹s ∈ C.
Mówi, że aib są członkami zbioru liczb zliczających, że s, zdefiniowane jako suma tych dwóch, musi być również członkiem zbioru liczb zliczających. Dowód ten można również przedstawić jako ciąg ciągów znaków rachunku predykatów pierwszego rzędu.
No Small Project Research
Taki przykład może wydawać się prosty dla kogoś, kto odbył lata kursów matematyki i skonstruował dowody. Dla dziecka nie jest to łatwe i bardzo trudno jest uzyskać sztuczną sieć, która konwerguje się w funkcję, która stosuje wszystkie reguły logicznego wnioskowania i zawiera meta-reguły pozwalające uzyskać dowód na formalny system, taki jak arytmetyka liczb całkowitych.
Turing kompletnych sieci, takich jak RNN, z pewnością będzie miał przewagę nad MLP (perceptrony wielowarstwowe). Sieci oparte na uwagach mogą być rozsądną opcją badawczą. Są inne wskazane w poniższych odnośnikach.
Do badań potrzebna byłaby równoległa platforma obliczeniowa, ponieważ wektor wejściowy może wynosić setki kilobajtów. Rozmiary przykładów i liczbę potrzebnych jest trudno oszacować bez udziału roku lub dwóch w procesie badawczym.
Najpierw należy zdefiniować liczenie liczb, znak plus i znak równości, a te definicje i pewna liczba aksjomatów, postulatów, lematów i następstw muszą być częścią przykładu wprowadzania w formie formalnej, takiej jak propozycja, która ma być udowodnione powyżej, wraz z tą propozycją.
I to jest praca, aby przygotować tylko jeden przykład. Potrzebujesz tysięcy, aby wyszkolić intuicyjną wiedzę na temat zasad wnioskowania w głębokiej sieci. (Bardzo celowo wybrałem słowo INTUICYWNE z powodów teoretycznych, których wyjaśnienie zajęłoby co najmniej sto stron).
To nie jest mały projekt, ponieważ przykładowy zestaw danych musi zawierać co najmniej kilka tysięcy przypadków, a każdy przypadek, choć może mieć pewną teorię, musi być tak skonfigurowany, aby propozycja została idealnie sformułowana, a także niezbędny zbiór teorii w doskonałej formie na wejściu dla każdej iteracji treningu.
Domyślam się, że zajęłoby to zespołowi błyskotliwych badaczy z odpowiednim zrozumieniem głębokich sieci, zbieżności i rachunku predykatów około dziesięciu lat, aby wyszkolić sieć, aby dawać realne dowody w odpowiedzi na proste matematyczne propozycje.
Ale nie byłoby to małe osiągnięcie
Dla niektórych może to wydawać się absurdalne, ale byłby to pierwszy raz, kiedy ktoś nauczyłby komputer logiki. Natury tuż przed ziemią zajęło nauczanie logicznego wnioskowania o organizmie, Sokratesie.
Ludzie zakładają, że ponieważ komputer składa się z obwodów cyfrowych wykonujących logikę zgodnie z projektem, komputery są logiczne. Każdy, kto zajmuje się tworzeniem oprogramowania od dziesięcioleci i ma skłonność do myślenia głębszego niż hakowanie dla zabawy lub pieniędzy, wie inaczej. Nawet po starannym zaprogramowaniu komputery nie symulują logicznego wnioskowania i nie mogą skorygować własnego zaprogramowanego zachowania pod kątem dowolnego błędu. W rzeczywistości większość dzisiejszego rozwoju oprogramowania polega na naprawianiu błędów.
Symulowanie logicznej myśli byłoby ważnym krokiem w kierunku symulacji poznania i szerszego zakresu ludzkich możliwości.
Referencje
Nauka komponowania sieci neuronowych do odpowiedzi na pytania Jacob Andreas, Marcus Rohrbach, Trevor Darrell i Dan Klein UC, Berkeley 2016
https://arxiv.org/pdf/1601.01705.pdf
Nauka wielu warstw reprezentacji Geoffrey E. Hinton Department of Computer Science, University of Toronto 2007
http://www.csri.utoronto.ca/~hinton/absps/ticsdraft.pdf
Neural Turing Machine (pokaz slajdów) Autor: Alex Graves, Greg Wayne, Ivo Danihelka Przedstawienie: Tinghui Wang (Steve)
https://eecs.wsu.edu/~cook/aiseminar/papers/steve.pdf
Maszyny neuronowe Turinga (papier) Alex Graves, Greg Wayne, Ivo Danihelka
https://pdfs.semanticscholar.org/c112/6fbffd6b8547a44c58b192b36b08b18299de.pdf
2014
Uczenie się wzmacniające, maszyny neuronowe Wojciech Zaremba, Ilya Sutskever ICLR dokument konferencyjny
https://arxiv.org/pdf/1505.00521.pdf?utm_content=buffer2aaa3&utm_medium=social&utm_source=twitter.com&utm_campaign=buffer
2016
Dynamiczna maszyna neuronowa Turinga z ciągłymi i dyskretnymi schematami adresowania Caglar Gulcehre1, Sarath Chandar1, Kyunghyun Cho2, Yoshua Bengio1
https://arxiv.org/pdf/1607.00036.pdf
2017
Internetowa samokonstruująca rozmyta sieć neuronowa, sieć wnioskowania i jej zastosowania Chia-Feng Juang i Chin-Teng Lin IEEE Transakcje w Fuzzy Systems, v6, n1 1998
https://ir.nctu.edu.tw/bitstream/11536/ 32809/1 / 000072774800002.pdf
Gated Graph Sequence Neural Networks Yujia Li i Richard Zemel Konferencja ICLR 2016
https://arxiv.org/pdf/1511.05493.pdf
Maszyny budowlane, które uczą się i myślą jak ludzie Brenden M. Lake, Tomer D. Ullman, Joshua B. Tenenbaum oraz Samuel J. Gershman Behavioural and Brain Sciences 2016
https://arxiv.org/pdf/1604.00289.pdf
Zależne od kontekstu wstępnie przeszkolone głębokie sieci neuronowe do rozpoznawania mowy z dużym słownictwem Transakcje George E. Dahl, Dong Yu, Li Deng i Alex Acero IEEE dotyczące przetwarzania dźwięku, mowy i języka 2012
https://s3.amazonaws.com/ academia.edu.documents / 34691735 / dbn4lvcsr-transaslp.pdf? AWSAccessKeyId = AKIAIWOWYYGZ2Y53UL3A i utraci ważność = 1534211789 i podpis = 33QcFP0JGFeA% 2FTsqjQZpXYrIGm_%% 3DEd% 3% 3DD% 3% 3DD% 15
Osadzanie jednostek i relacji w celu uczenia się i wnioskowania w bazach wiedzy Bishan Yang1, Wen-tau Yih2, Xiaodong He2, Jianfeng Gao2 i Li Deng2 Konferencja ICLR 2015
https://arxiv.org/pdf/1412.6575.pdf
Algorytm szybkiego uczenia się dla sieci głębokiej wiary Geoffrey E. Hinton, Simon Osindero, Yee-Whye Teh (przekazany przez Yann Le Cun) Obliczenia neuronowe 18 2006
http://axon.cs.byu.edu/Dan/778/papers/Deep % 20Networks / hinton1 * .pdf
FINN: Framework for Fast, Scalable Binaryized Neural Network Wnioskowanie Yaman Umuroglu i in. 2016
https://arxiv.org/pdf/1612.07119.pdf
Od uczenia maszynowego do rozumowania maszynowego Léon Bottou 2/8/2011
https://arxiv.org/pdf/1102.1808.pdf
Dogłębne uczenie się Yann LeCun1,2, Yoshua Bengio3 i Geoffrey Hinton4,5 Nature vol 521 2015
https://www.evl.uic.edu/creativecoding/courses/cs523/slides/week3/DeepLearning_LeCun.pdf