Dlaczego potrzebujemy zdrowego rozsądku w AI?


10

Rozważmy ten przykład:

To urodziny Johna, kupmy mu latawiec.

My, ludzie, najprawdopodobniej powiedzieliby, że latawiec jest prezentem urodzinowym, gdyby zapytano go, dlaczego jest kupowany; i nazywamy to rozumowanie zdrowym rozsądkiem .

Dlaczego potrzebujemy tego w sztucznie inteligentnych agentach? Myślę, że może to powodować mnóstwo problemów, ponieważ wiele naszych ludzkich błędów jest spowodowanych przez te niejasne założenia.

Wyobraź sobie, że AI ignoruje robienie pewnych rzeczy, ponieważ zakłada, że ​​zrobiła to już inna osoba (lub inna AI), stosując zdrowy rozsądek.

Czy nie spowodowałoby to błędów ludzkich w systemach AI?


Komentarze nie są przeznaczone do rozszerzonej dyskusji; ta rozmowa została przeniesiona do czatu .
nbro

Odpowiedzi:


16

Wiedza zdrowego rozsądku to zbiór przesłanek, które każdy, w określonym kontekście (stąd wiedza zdrowego rozsądku może być funkcją kontekstu), przyjmuje za pewnik. Byłoby wiele nieporozumień między człowiekiem a AI, gdyby AI nie posiadała zdrowego rozsądku. Dlatego wiedza zdrowego rozsądku ma fundamentalne znaczenie dla interakcji człowiek-AI .

Istnieją również przesłanki, które każdy człowiek uważa za oczywiste, niezależnie od kraju, kultury lub ogólnie kontekstu. Na przykład każdy człowiek (prawie od urodzenia) ma mechanizm wnioskowania o naiwnej fizyce, taki jak przestrzeń, czas i interakcje fizyczne. Jeśli AI nie posiada tej wiedzy, nie może wykonywać zadań wymagających tej wiedzy.

Uważa się , że każde zadanie wymagające znajomości zdrowego rozsądku ( przeciętnego człowieka) przez maszynę jest AI-kompletne , to znaczy wymaga inteligencji na poziomie ludzkim (lub ogólnym). Zobacz sekcję 3 artykułu Common Sense Knowledge (2009), autorstwa Christiana Andricha, Leo Novosela i Bojana Hrnkasa.

Oczywiście problemy pojawiające się podczas komunikowania się ludzi z powodu różnych założeń lub przesłanek mogą również powstać między ludźmi a AI (posiadającymi wiedzę zdrowego rozsądku).


Komentarze nie są przeznaczone do rozszerzonej dyskusji; ta rozmowa została przeniesiona do czatu .
nbro

10

Potrzebujemy tego rodzaju zdrowego rozsądku, jeśli chcemy, aby komputery zrozumiały ludzki język. Programowi komputerowemu łatwo jest przeanalizować strukturę gramatyczną podanego przykładu, ale aby zrozumieć jego znaczenie, musimy znać możliwe konteksty, które nazywamy tutaj „zdrowym rozsądkiem”.

Podkreślono to bardzo w Roger Schank i in. prace nad komputerowym zrozumieniem historii i prowadzą do wielu badań nad reprezentacją wiedzy, skryptami, planami, celami. Jednym z przykładów z prac Schanka jest to, że Mary była głodna. Wzięła przewodnik Michelin. - wydaje się to non-sequitur: jeśli jesteś głodny, po co kupować książkę? Dopóki nie uświadomisz sobie, że jest to przewodnik po restauracji i że Mary prawdopodobnie planuje pójść do restauracji, aby zjeść. Jeśli wiesz, że pójście do restauracji jest potencjalnym rozwiązaniem problemu głodu, nie masz problemu ze zrozumieniem tego fragmentu historii.

Każda historia musi być zrozumiała, ponieważ żadna historia nie jest całkowicie jednoznaczna. Wspólne rzeczy są „rozumiane” i nie są wyraźnie wymienione. Opowieści odnoszą się do ludzkich doświadczeń, a historia, w której wszystko by było wyraźne, prawdopodobnie czytałaby jak program komputerowy. Potrzebujesz również zdrowego rozsądku, aby zrozumieć, jak zachowują się bohaterowie opowieści i jak wpływają na to, co się dzieje. Ponownie jest to bardzo subiektywne, ale konieczne. Pewien zdrowy rozsądek może mieć ogólne zastosowanie, inne jego aspekty nie będą. To złożony problem, dlatego badacze zmagali się z nim od co najmniej pół wieku badań nad sztuczną inteligencją.

Oczywiście wprowadziłoby to „ludzkie błędy” do systemu AI. Wszystko to jest bardzo subiektywne i specyficzne dla kultury. Wyjazd do restauracji w USA różni się od wizyty we Francji - dlatego wyjazd za granicę może być wyzwaniem. A moje czytanie historii prawdopodobnie będzie inne niż twoje. Ale jeśli chcesz symulować ludzką inteligencję, nie możesz tego zrobić bez potencjalnych „błędów” ludzkich.


Komentarze nie są przeznaczone do rozszerzonej dyskusji; ta rozmowa została przeniesiona do czatu .
nbro

2

Odpowiem na to pytanie w kilku częściach:

Dlaczego systemy AGI muszą mieć zdrowy rozsądek?

Ludzie z dzikiego powodu i komunikując się przy użyciu zdrowego rozsądku bardziej niż ze ścisłą logiką, można to zauważyć, zauważając, że łatwiej jest odwołać się do czyichś emocji niż logiki. Tak więc każdy system, który dąży do odtworzenia ludzkiego poznania (jak w AGI), powinien również powtórzyć tę tendencję do korzystania ze zdrowego rozsądku.

Mówiąc prościej, chcielibyśmy, aby nasz system AGI mógł mówić do nas w zdrowym rozsądku po prostu dlatego, że właśnie to rozumiemy najlepiej (inaczej nie zrozumielibyśmy naszego przyjaznego AGI, prawda?). Tępa teoria i ścisła logika mogą technicznie być poprawne, ale nie odwołują się do naszego zrozumienia.

Czy celem AGI nie jest stworzenie najbardziej zaawansowanego systemu poznawczego? Dlaczego „najdoskonalszy” system AGI powinien poradzić sobie z takimi niedoskonałościami i niedokładnościami, które występują w zdrowym rozsądku?

Po pierwsze, może się wydawać, że logika zdrowego rozsądku jest „irracjonalna”. Być może istnieje spójny matematyczny sposób modelowania zdrowego rozsądku, tak że wszystkie subtelności zdrowego rozsądku są reprezentowane w rygorystyczny sposób.

Po drugie, wczesne badania nad sztuczną inteligencją rozpoczęły się w badaniach kognitywistyki, w których badacze próbowali powielić „algorytmy umysłu”, a ściślej: rozstrzygalne procedury, które odtworzyły myśl ludzką. W tym zakresie więc badanie AI nie ma na celu stworzenia „najwyższego czynnika poznawczego”, lecz jedynie odtworzenie ludzkiej myśli / zachowania. Po odtworzeniu ludzkiego zachowania możemy spróbować stworzyć coś ponadludzkiego, nadając mu większą moc obliczeniową, ale nie jest to gwarantowane.

Nadal nie rozumiem, dlaczego w systemach AGI potrzebny jest zdrowy rozsądek. Czy AGI nie jest byciem najbardziej inteligentnym i wydajnym systemem obliczeniowym? Dlaczego miałoby to obchodzić ludzkie granice zrozumienia, które wymaga zdrowego rozsądku?

Być może masz trochę niepoprawne zrozumienie tego, co pociąga za sobą AGI. AGI nie oznacza nieograniczonej mocy obliczeniowej (fizycznie niemożliwej z powodu fizycznych ograniczeń obliczeniowych, takich jak granica Bremermanna ) lub nieograniczonej inteligencji (być może fizycznie niemożliwej z powodu wcześniejszego ograniczenia). Zwykle oznacza to po prostu sztuczną „ogólną inteligencję”, ogólne znaczenie szerokie i powszechne.

Rozważania na temat niezwiązanych czynników są badane bardziej szczegółowo w takich dziedzinach, jak informatyka teoretyczna (wierzę w teorię typów), teoria decyzji, a może nawet teoria mnogości, w których jesteśmy w stanie zadawać pytania na temat czynników o nieograniczonej mocy obliczeniowej. Można powiedzieć, że są pytania, na które nawet system AGI z nieograniczoną mocą nie może odpowiedzieć z powodu problemu zatrzymania , ale tylko wtedy, gdy założenia na tych polach odwzorowują strukturę danej AGI, co może nie być prawdą.

Aby lepiej zrozumieć, co może oznaczać AGI i jej cele, mógłbym polecić dwie książki: Artificial Intelligence: The Very Idea Johna Haugelanda, aby zastosować bardziej pragmatyczne podejście (tak pragmatyczne, jak może być filozofia sztucznej inteligencji oraz O pochodzeniu przedmiotów przez Brian Cantwell Smith za bardziej filozoficzne podejście.

Na marginesie, kolekcja Zen Koana: The Gateless Gate, zawiera następujący fragment: (cytowany i edytowany z wikipedii )

Mnich zapytał Zhaozhou, chińskiego mistrza Zen: „Czy pies ma naturę Buddy, czy nie?” Zhaozhou odpowiedział: „Wú”

Wú (無) tłumaczy się na „brak”, „brak” lub „nic”, co można interpretować jako unikanie odpowiedzi „tak” lub „nie”. Ta oświecona osoba nie stara się ściśle odpowiadać na każde pytanie, ale po prostu odpowiadać w sposób, który ma sens. Tak naprawdę nie ma znaczenia, czy pies ma naturę Buddy, czy też nie (cokolwiek znaczy natura Buddy), więc mistrz domyślnie rozgrzesza pytanie, a nie je rozwiązuje.


3
Byłoby o wiele zabawniej, gdyby mistrz odpowiedział „wúf wúf!”
m3charatures

1

Być może pomogłoby to podać przykład tego, co może pójść źle bez zdrowego rozsądku: na początku powieści „Dwie twarze jutra” Jamesa Hogana, nadzorca budowlany na Księżycu, składa wniosek z automatycznym systemem, prosząc o to konkretny duży sprzęt budowlany powinien zostać jak najszybciej dostarczony na jego stronę. System odpowiada, że ​​przyjedzie za dwadzieścia minut. Dwadzieścia minut później przełożony zostaje zabity, gdy sprzęt uderza na jego plac budowy. System ustalił, że najszybszym sposobem dostarczenia sprzętu do tego miejsca było zamontowanie go na sterowniku masowym i uruchomienie go na miejscu. Gdyby omawiany system otrzymał zdrowy rozsądek, wywnioskowałby dodatkowe nieokreślone ograniczenia zapytania, takie jak „sprzęt powinien przybyć nienaruszony”, przybycie sprzętu nie powinno spowodować uszkodzenia ani utraty życia ”itd. (reszta powieści opisuje eksperyment mający na celu stworzenie nowego systemu ze zdrowym rozsądkiem)


Całkiem interesujący przykład. Chociaż może i może być odwrotnie. Wyobraź sobie, że AI sprawdza pacjenta i widząc ogólny normalny wygląd pacjenta, dochodzisz do wniosku, że pacjent może / powinna czuć się dobrze (w oparciu o zdrowy rozsądek, że jeśli dobrze wyglądasz, prawdopodobnie tak jest); jednak pacjent potrzebuje poważnej pomocy. Jednak myślę, że jest już jasne, że zdrowy rozsądek nie jest problemem, to wadliwy zdrowy rozsądek / wiedza, która może okazać się niebezpieczna w sytuacjach krytycznych. Myślę więc, że powinniśmy kontrolować i upewnić się, że AI ma nieskazitelny zdrowy rozsądek.
Tytan

0

Czy to zdrowy rozsądek, czy też rozumienie języka naturalnego?

Mówi się, że rozumienie języka naturalnego jest jednym z najtrudniejszych zadań AI. To jeden z przykładów pokazujących dlaczego. Pierwsza część zdania związana jest z drugą częścią, czyli jak działają zdania.

Teraz istotne pytanie dotyczy tego, jak te dwie części są ze sobą powiązane. Istnieje kilka standardowych relacji, które napotykamy, na przykład porządek czasowy. W tym konkretnym przykładzie charakter relacji jest bliższy przyczynie i skutkowi.

Widzisz ten efekt, gdy wstawiamy słowo, aby wyraźna była ta relacja:

To urodziny Johna, więc kupmy mu latawiec. lub Kupmy latawca Johnowi, bo to jego urodziny.

Jest to technika dla ludzi, aby jawnie ujawnić te ukryte relacje.

Teraz, jak zauważa ciekawy lud, potrzebujesz również wiedzy kulturowej, aby zrozumieć, w jaki sposób urodziny mogą być przyczyną prezentu. Nie pomaga w tym żaden zdrowy rozsądek.


Używamy „ zdrowego rozsądku ”, aby zrozumieć takie zdanie. Zgadzam się, że NLP jest naprawdę trudne, a to dlatego, że do tej pory AI nie posiadała tak wszechstronnej wiedzy i modelu świata, jaki my, ludzie; stąd brakuje mu połączenia kropek i zrozumienia tych ukrytych relacji. Że „ wiedza o kulturze ” wspomniałeś jest w zasadzie uznać nasz zdrowy rozsądek.
Titan
Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.