Wszystko, co dotyczy sieci Deep Learning (DL) i deep (er), wydaje się „udane”, przynajmniej postępuje bardzo szybko i kultywuje przekonanie, że AGI jest w zasięgu ręki. To popularna wyobraźnia. DL to ogromne narzędzie do rozwiązywania tak wielu problemów, w tym tworzenia AGI. To jednak nie wystarczy. Narzędzie jest niezbędnym składnikiem, ale często niewystarczającym.
Czołowe postacie w tej dziedzinie szukają gdzie indziej, aby zrobić postęp. Ten raport / roszczenie gromadzi linki do oświadczeń Yoshua Bengio , Yanna LeCuna i Geoffa Hintona . Raport wyjaśnia również:
Główne słabości DL (jak je widzę) to: poleganie na najprostszych możliwych neuronach modelowych („kreskówkowych”, jak je nazywa LeCun); wykorzystanie pomysłów z XIX-wiecznej mechaniki statystycznej i statystyki, które są podstawą funkcji energetycznych i metod wiarygodności logarytmicznej; oraz ich połączenie w technikach takich jak backprop i stochastic descent gradient, co prowadzi do bardzo ograniczonego reżimu aplikacji (offline, głównie partiami, nadzorowane uczenie się), wymagającym bardzo utalentowanych praktyków (aka „Stochastic Graduate Descent”), dużych ilości drogich oznaczone dane treningowe i moc obliczeniowa. Chociaż jest to idealne rozwiązanie dla dużych firm, które mogą zwabić lub kupić talent i wdrożyć nieograniczone zasoby w celu gromadzenia danych i ich niszczenia, DL nie jest po prostu niedostępny ani użyteczny dla większości z nas.
Chociaż interesujące i odpowiednie, tego rodzaju wyjaśnienia tak naprawdę nie dotyczą istoty problemu: czego brakuje?
Pytanie wydaje się szerokie, ale może wynikać z braku prostej odpowiedzi. Czy istnieje sposób na określenie, czego brakuje DL dla AGI?