Często uważa się, że agent AI ma „czujniki”, „pamięć”, „procesory uczenia maszynowego” i „reakcję”. Jednak maszyna z nimi niekoniecznie staje się samoregulującym agentem AI. Czy poza częściami wymienionymi powyżej istnieją inne elementy lub szczegóły niezbędne do tego, aby maszyna mogła być samoregulującym agentem AI?
Na przykład w dokumencie z 2011 r. Zadeklarowano, że rozwiązanie problemu optymalizacji polegającego na maksymalizacji inteligencji jest niezbędną cechą procesu samoregulacji, jak cytowano poniżej:
Mówi się, że system realizuje instancję samoprogramowania, gdy przechodzi naukę dotyczącą jakiegoś elementu swojej „infrastruktury poznawczej”, przy czym ten ostatni jest definiowany jako zamazany zestaw „krytycznych dla inteligencji” cech systemu; a krytyczność inteligencji funkcji systemowej jest definiowana jako „jakość funkcji” rozpatrywana z perspektywy rozwiązania problemu optymalizacji polegającego na maksymalizacji inteligencji systemu wielofunkcyjnego.
Jednak opis „optymalizacji inteligencji” jest niejasny. Czy ktoś może podać jasną definicję lub lepsze podsumowanie niezbędnych komponentów dla agentów samoregulujących?
To pytanie pochodzi z zamkniętej wersji beta 2014, a pytający ma UID równy 23.