W dzisiejszych czasach sztuczna inteligencja wydaje się niemal równa uczeniu maszynowemu, zwłaszcza głębokiemu uczeniu się. Niektórzy twierdzą, że głębokie uczenie się zastąpi w tej dziedzinie ludzkich ekspertów, tradycyjnie bardzo ważnych w inżynierii obiektów. Mówi się, że dwa przełomy stały się podstawą głębokiego uczenia się: z jednej strony neurobiologia i neuroplastycznośćw szczególności mówi nam, że podobnie jak ludzki mózg, który jest wysoce plastyczny, sztuczne sieci można wykorzystać do modelowania prawie wszystkich funkcji; z drugiej strony wzrost mocy obliczeniowej, w szczególności wprowadzenie GPU i FPGA, wspaniale poprawił inteligencję algorytmiczną i sprawił, że modele stworzone dekady temu były niezwykle potężne i wszechstronne. Dodam, że duże zbiory danych (głównie dane oznaczone) zgromadzone w ciągu ostatnich lat są również istotne.
Takie zmiany wprowadzają wizję komputerową (i rozpoznawanie głosu) w nową erę, ale w przetwarzaniu języka naturalnego i systemach eksperckich sytuacja nie zmieniła się zbytnio.
Osiągnięcie zdrowego rozsądku dla sieci neuronowych wydaje się wysokim porządkiem, ale większość zdań, rozmów i krótkich tekstów zawiera wnioski, które należy wyciągnąć z wiedzy świata w tle. Grafowanie wiedzy ma zatem ogromne znaczenie dla sztucznej inteligencji. Sieci neuronowe można wykorzystać do budowania baz wiedzy, ale wydaje się, że modele sieci neuronowych mają trudności z wykorzystaniem tych skonstruowanych baz wiedzy.
Moje pytania to:
Czy baza wiedzy (na przykład „wykres wiedzy” opracowany przez Google) jest obiecującą gałęzią sztucznej inteligencji? Jeśli tak, to w jaki sposób KB może wzmocnić uczenie maszynowe? Jak możemy włączyć dyskretne zmienne ukryte do NLU i NLG?
Gdzie jest kierunek przetrwania w epoce zdominowanej przez DL? Czy dynamiczna baza wiedzy przypominająca Wolfram jest nowym kierunkiem? Lub jakieś nowe kierunki?
Czy brakuje mi czegoś fundamentalnego lub pomysłów dotyczących tych problemów?