Słuchałem wykładu panelu złożonego z dwóch wpływowych chińskich naukowców: Wang Gang i Yu Kai i innych.
Zapytany o największe wąskie gardło rozwoju sztucznej inteligencji w najbliższej przyszłości (od 3 do 5 lat), Yu Kai, który ma doświadczenie w branży sprzętu komputerowego, powiedział, że sprzęt będzie podstawowym problemem i powinniśmy zapłacić większość nasza uwaga na to. Podał nam dwa przykłady:
- Na wczesnym etapie rozwoju komputera porównujemy nasze maszyny pod względem układów;
- Sztuczna inteligencja, która jest bardzo popularna w tych latach, byłaby prawie niemożliwa, gdyby nie została wzmocniona przez procesor graficzny Nvidii.
Podstawowe algorytmy istniały już w latach 80. i 90. XX wieku, ale sztuczna inteligencja przeszła przez 3 zimy AI i nie była empiryczna, dopóki nie można było trenować modeli z mega serwerami wzmocnionymi GPU.
Następnie dr Wang skomentował swoje opinie, że powinniśmy również opracować systemy oprogramowania, ponieważ nie możemy zbudować automatycznego samochodu, nawet jeśli połączyliśmy wszystkie procesory graficzne i obliczenia na świecie.
Potem, jak zwykle, mój umysł odszedł i pomyślałem, że co, jeśli ci, którzy potrafią obsługiwać superkomputery w latach 80. i 90. wykorzystali istniejące wówczas algorytmy sieci neuronowej i wyszkolili je z tonami danych naukowych? Niektóre osoby w tym czasie mogą oczywiście próbować zbudować systemy AI, które budujemy teraz. Ale dlaczego sztuczna inteligencja stała się gorącym tematem i stała się empiryczna dopiero po kilkudziesięciu latach? Czy to tylko kwestia sprzętu, oprogramowania i danych?