Jak można zmierzyć EQ programu AI?


9

Czy program AI może mieć EQ (inteligencja emocjonalna lub iloraz emocjonalny)?

Innymi słowy, czy można zmierzyć EQ programu AI?

Jeśli EQ jest trudniejszy do zmierzenia niż IQ (przynajmniej ze standardową aplikacją zarówno dla ludzi, jak i programów AI), dlaczego tak jest?


Jakie „testy EQ” znasz dla ludzi? Jaka byłaby przeszkoda w zastosowaniu ich do sztucznej inteligencji?
NietzscheanAI

Odpowiedzi:


6

Odpowiedź na twoje pytanie brzmi: „Zasadniczo tak” - w najbardziej ogólnej formie testowanie EQ jest tylko specyficznym przypadkiem testu Turinga („Jak byś się czuł…”).

Aby zobaczyć, dlaczego przeprowadzenie znaczących testów EQ może być trudne, rozważ następujące dwa możliwe testy:

W skrajnym stopniu złożoności film „Blade Runner” słynie ze testu pozwalającego odróżnić człowieka od androida na podstawie odpowiedzi na pytania naładowane emocjonalnie.

Jeśli spróbujesz zadać te pytania (lub nawet znacznie prostsze) współczesnemu chatbotowi, prawdopodobnie szybko dojdziesz do wniosku, że nie rozmawiasz z kimś.

Problem z oceną EQ polega na tym, że im bardziej wyrafinowany emocjonalnie test, tym bardziej ogólny musi być system AI, aby przekształcić dane wejściowe w znaczącą reprezentację.

Na drugim biegunie od powyższego załóżmy, że test EQ został sformułowany w niezwykle ustrukturyzowany sposób, przy ustrukturyzowanym wkładzie dostarczonym przez człowieka. W takim przypadku sukces w „teście EQ” nie jest tak naprawdę ugruntowany w świecie rzeczywistym.

W eseju zatytułowanym „Niewytłumaczalny efekt Elizy i jej niebezpieczeństwa” Douglas Hofstadter podaje następujący przykład, w którym program ACME ma twierdzić (nie Hofstadter), że „rozumie” analogię.

Tutaj komputer dowiaduje się o koledze o imieniu Sluggo, który zabiera żonę Jane i swojego dobrego kumpla Bucka do baru, gdzie wszystko przebiega naturalnie, a Jane kończy ciążę. Ma dziecko, ale go nie chce, a więc, wspomagana przez męża, tonie dziecko w rzece, „zgrabnie rozwiązując” problem „Bambi”.

Ta historia jest prezentowana ACME w następującej formie:

ql: (neglectful-husband (Sluggo))
q2: (lonely-and-sex-starved-wife (Jane-Doe))
q3: (macho-ladykiller (Buck-Stag))
q4: (poor-innocent-little-fetus (Bambi))
q5: (takes-out-to-local-bar (Sluggo Jane-Doe Buck-Stag))
...
q11: (neatly-solves-the-problem-of (Jane-Doe Bambi))
q12: (cause (ql0 q11))

Załóżmy, że program został zapytany, czy zachowanie Jane Doe było moralne. Złożone złożone koncepcje emocjonalne, takie jak „zaniedbujące”, „samotne” i „niewinne”, są tutaj po prostu predykatami, niedostępnymi dla sztucznej inteligencji do głębszych badań introspektywnych. Można je równie łatwo zastąpić etykietami, takimi jak „bling-blang-blong15657”.

W pewnym sensie brak powodzenia testu EQ z dowolną głębią wskazuje na ogólny problem, przed którym stoi obecnie AI: niemożność zdefiniowania (lub w inny sposób nauczenia się) znaczących reprezentacji subtelnych złożoności ludzkiego świata, co jest znacznie więcej złożone niż rozpoznawanie filmów kotów.

Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.