Czy analogia jest konieczna do sztucznej inteligencji ogólnej?


9

Analogie są dość potężne w komunikacji. Pozwalają wyjaśnić złożone pojęcia osobom bez wiedzy o domenach, po prostu odwzorowując je na znaną domenę. Hofstadter mówi, że mają znaczenie , a Dijkstra mówi, że są niebezpieczni. W każdym razie analogie mogą być postrzegane jako potężny sposób na przekazywanie pojęć w ludzkiej komunikacji (czy mogę powiedzieć, że transfer uczenia się ?).

Zdaję sobie sprawę ze starszej pracy, takiej jak uzasadnianie oparte na analizie przypadków , ale nie ma już najnowszych prac nad mechanizmem analogii w sztucznej inteligencji.

Czy istnieje zgoda co do tego, czy analogia jest niezbędna dla AGI i jak krytyczne byłyby one?

Proszę rozważyć udzielenie odpowiedzi na konkretne prace lub publikacje.

Odpowiedzi:


6

Nie sądzę, żebym mógł udzielić prawdziwej odpowiedzi na postawione pytanie, ponieważ nie mam ścisłej definicji „inteligencji ogólnej”. Nie mam też solidnej definicji „krytycznej” w kontekście.

Ale ... jeśli opieramy się na naszym naiwnym / intuicyjnym zrozumieniu, czym jest inteligencja i co to znaczy być krytycznym, możesz przetłumaczyć to jako „gdyby ogólny system wywiadowczy potrzebowałby tworzenia analogii, aby robić pewne rzeczy, których nie mógł” w przeciwnym razie? ” Innymi słowy „czy istnieją użyteczne zachowania, które są możliwe dzięki analogicznemu rozumowaniu, którego nie można odtworzyć w żaden inny sposób?”

W najściślejszym sensie nie mam również odpowiedzi na żadne z tych pytań, ale istnieją przynajmniej dowody sugerujące, że odpowiedź może być „tak”. Zobacz, w celach informacyjnych, artykuł Copycat autorstwa Hofstadtera i Mitchella. Z tego, co widziałem, niektóre rodzaje problemów, które rozwiązuje Copycat, różnią się od wszystkiego, co widziałem rozwiązane przez inne podejścia. Może to przypadek, że nikt nie próbował rozwiązać tych problemów, nie wiem, powiedzmy „głębokie uczenie się”, „indukcja reguł” lub „algorytmy genetyczne”. A może mają, a ja po prostu nie natknąłem się na ten korpus badań.

W każdym razie dodam również, że wciąż trwają badania nad wykorzystaniem analogii dla AI / ML. Zobacz na przykład ten artykuł z lipca 2017 r., W którym autorzy mówią o stosowaniu analogii, ale definiują swoje podejście jako „wnioskowanie analogiczne” (które, jak twierdzą, różni się od „rozumowania analogicznego” zdefiniowanego we wcześniejszym „okresie GOFAI”). Istnieje również ten dokument z czerwca 2017 r., W którym inny zestaw autorów zajmuje się formą analogicznego rozumowania.

Nie sądzę, aby istniał konsensus co do tego, czy jakaś forma analogicznego rozumowania jest „krytyczna”, ale zdecydowanie jest to przedmiot, który wciąż jest przedmiotem badań.

I trochę na temat stycznej - interesującym powiązanym pytaniem byłoby pytanie, czy „tworzenie analogii” byłoby wschodzącą własnością wystarczająco głębokiego / szerokiego ANN, czy też taki obiekt musiałby zostać zaprojektowany i jednoznacznie zakodowane.

Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.