Czy sztuczna inteligencja jest podatna na hakowanie?
Odwróć na chwilę swoje pytanie i pomyśl:
Co zmniejszyłoby ryzyko sztucznej inteligencji w porównaniu do jakiegokolwiek innego oprogramowania?
Pod koniec dnia oprogramowanie jest oprogramowaniem i zawsze pojawią się błędy i problemy z bezpieczeństwem. AI są narażone na wszystkie problemy, na które narażone jest oprogramowanie inne niż AI, ponieważ AI nie zapewnia im jakiejś odporności.
Jeśli chodzi o manipulowanie specyficzne dla AI, AI jest narażone na podawanie fałszywych informacji. W przeciwieństwie do większości programów, funkcjonalność AI zależy od danych, które zużywa.
Na przykład w świecie rzeczywistym kilka lat temu Microsoft stworzył chatbota AI o nazwie Tay. Twitterowi zajęło mniej niż 24 godziny, aby nauczył go mówić: „Zbudujemy mur, a Meksyk za to zapłaci”:
(Zdjęcie zaczerpnięte z artykułu Verge, do którego link znajduje się poniżej, nie rości sobie żadnych praw).
I to tylko wierzchołek góry lodowej.
Niektóre artykuły o Tay:
Teraz wyobraź sobie, że nie był to bot czatowy, wyobraź sobie, że był to ważny element sztucznej inteligencji z przyszłości, w której AI zarządza takimi rzeczami, jak nie zabijanie pasażerów samochodu (tj. Samochodu samobieżnego) lub nie zabijanie pacjenta stół operacyjny (tj. jakiś sprzęt medyczny).
To prawda, można mieć nadzieję, że takie AI będą lepiej zabezpieczone przed takimi zagrożeniami, ale przypuśćmy, że ktoś znalazł sposób na dostarczenie tak wielu AI fałszywych informacji bez zauważenia (w końcu najlepsi hakerzy nie pozostawiają śladu), co naprawdę może oznaczać różnica między życiem a śmiercią.
Korzystając z przykładu samochodu samojezdnego, wyobraź sobie, czy fałszywe dane mogą sprawić, że samochód uzna, że konieczne jest zatrzymanie awaryjne na autostradzie. Jedną z aplikacji medycznej sztucznej inteligencji są decyzje o śmierci lub życiu w ER, wyobraź sobie, że haker może przechylić szalę na korzyść złej decyzji.
Jak możemy temu zapobiec?
Ostatecznie skala ryzyka zależy od tego, jak zależni ludzie stają się wobec AI. Na przykład, jeśli ludzie oceniliby AI i nigdy jej nie zakwestionowali, otworzyliby się na wszelkiego rodzaju manipulacje. Jeśli jednak wykorzystają analizę sztucznej inteligencji jako jedną z części układanki, łatwiej będzie wykryć, kiedy sztuczna inteligencja jest niewłaściwa, czy to przypadkowo, czy też złośliwie.
W przypadku medycznego decydenta nie wierz tylko sztucznej inteligencji, przeprowadzaj testy fizyczne i zdobywaj też ludzkie opinie. Jeśli dwóch lekarzy nie zgadza się z AI, wyrzuć diagnozę AI.
W przypadku samochodu jedną z możliwości jest posiadanie kilku zbędnych systemów, które muszą zasadniczo „głosować” na to, co należy zrobić. Jeśli samochód ma wiele AI na oddzielnych systemach, które muszą głosować na temat tego, jakie działanie należy podjąć, haker musiałby wyjąć więcej niż jedną AI, aby przejąć kontrolę lub spowodować impas. Co ważne, jeśli sztuczna inteligencja działała na różnych systemach, taka sama eksploatacja wykorzystana na jednym nie mogłaby zostać wykonana na innym, co dodatkowo zwiększyło obciążenie hakera.