Odpowiem na to pytanie w kilku częściach:
Dlaczego systemy AGI muszą mieć zdrowy rozsądek?
Ludzie z dzikiego powodu i komunikując się przy użyciu zdrowego rozsądku bardziej niż ze ścisłą logiką, można to zauważyć, zauważając, że łatwiej jest odwołać się do czyichś emocji niż logiki. Tak więc każdy system, który dąży do odtworzenia ludzkiego poznania (jak w AGI), powinien również powtórzyć tę tendencję do korzystania ze zdrowego rozsądku.
Mówiąc prościej, chcielibyśmy, aby nasz system AGI mógł mówić do nas w zdrowym rozsądku po prostu dlatego, że właśnie to rozumiemy najlepiej (inaczej nie zrozumielibyśmy naszego przyjaznego AGI, prawda?). Tępa teoria i ścisła logika mogą technicznie być poprawne, ale nie odwołują się do naszego zrozumienia.
Czy celem AGI nie jest stworzenie najbardziej zaawansowanego systemu poznawczego? Dlaczego „najdoskonalszy” system AGI powinien poradzić sobie z takimi niedoskonałościami i niedokładnościami, które występują w zdrowym rozsądku?
Po pierwsze, może się wydawać, że logika zdrowego rozsądku jest „irracjonalna”. Być może istnieje spójny matematyczny sposób modelowania zdrowego rozsądku, tak że wszystkie subtelności zdrowego rozsądku są reprezentowane w rygorystyczny sposób.
Po drugie, wczesne badania nad sztuczną inteligencją rozpoczęły się w badaniach kognitywistyki, w których badacze próbowali powielić „algorytmy umysłu”, a ściślej: rozstrzygalne procedury, które odtworzyły myśl ludzką. W tym zakresie więc badanie AI nie ma na celu stworzenia „najwyższego czynnika poznawczego”, lecz jedynie odtworzenie ludzkiej myśli / zachowania. Po odtworzeniu ludzkiego zachowania możemy spróbować stworzyć coś ponadludzkiego, nadając mu większą moc obliczeniową, ale nie jest to gwarantowane.
Nadal nie rozumiem, dlaczego w systemach AGI potrzebny jest zdrowy rozsądek. Czy AGI nie jest byciem najbardziej inteligentnym i wydajnym systemem obliczeniowym? Dlaczego miałoby to obchodzić ludzkie granice zrozumienia, które wymaga zdrowego rozsądku?
Być może masz trochę niepoprawne zrozumienie tego, co pociąga za sobą AGI. AGI nie oznacza nieograniczonej mocy obliczeniowej (fizycznie niemożliwej z powodu fizycznych ograniczeń obliczeniowych, takich jak granica Bremermanna ) lub nieograniczonej inteligencji (być może fizycznie niemożliwej z powodu wcześniejszego ograniczenia). Zwykle oznacza to po prostu sztuczną „ogólną inteligencję”, ogólne znaczenie szerokie i powszechne.
Rozważania na temat niezwiązanych czynników są badane bardziej szczegółowo w takich dziedzinach, jak informatyka teoretyczna (wierzę w teorię typów), teoria decyzji, a może nawet teoria mnogości, w których jesteśmy w stanie zadawać pytania na temat czynników o nieograniczonej mocy obliczeniowej. Można powiedzieć, że są pytania, na które nawet system AGI z nieograniczoną mocą nie może odpowiedzieć z powodu problemu zatrzymania , ale tylko wtedy, gdy założenia na tych polach odwzorowują strukturę danej AGI, co może nie być prawdą.
Aby lepiej zrozumieć, co może oznaczać AGI i jej cele, mógłbym polecić dwie książki: Artificial Intelligence: The Very Idea Johna Haugelanda, aby zastosować bardziej pragmatyczne podejście (tak pragmatyczne, jak może być filozofia sztucznej inteligencji oraz O pochodzeniu przedmiotów przez Brian Cantwell Smith za bardziej filozoficzne podejście.
Na marginesie, kolekcja Zen Koana: The Gateless Gate, zawiera następujący fragment: (cytowany i edytowany z wikipedii )
Mnich zapytał Zhaozhou, chińskiego mistrza Zen: „Czy pies ma naturę Buddy, czy nie?” Zhaozhou odpowiedział: „Wú”
Wú (無) tłumaczy się na „brak”, „brak” lub „nic”, co można interpretować jako unikanie odpowiedzi „tak” lub „nie”. Ta oświecona osoba nie stara się ściśle odpowiadać na każde pytanie, ale po prostu odpowiadać w sposób, który ma sens. Tak naprawdę nie ma znaczenia, czy pies ma naturę Buddy, czy też nie (cokolwiek znaczy natura Buddy), więc mistrz domyślnie rozgrzesza pytanie, a nie je rozwiązuje.