Silne AI
W przypadku silnej sztucznej inteligencji krótką odpowiedzią jest wezwanie pomocy, gdy mogą nawet nie wiedzieć, jaka może być rzekoma pomoc.
To zależy od tego, co zrobi AI. Jeśli ma on idealnie i profesjonalnie rozwiązać jedno łatwe zadanie, pewne emocje nie byłyby bardzo przydatne. Ale jeśli ma się uczyć nowych, losowych rzeczy, byłby punkt, w którym napotkałby coś, z czym nie mógłby sobie poradzić.
W Lee Sedol vs AlphaGo match 4, jakiś zawodowiec, który powiedział, że komputer nie ma wcześniej emocji, skomentował, że może AlphaGo też ma emocje i jest silniejszy niż człowiek. W tym przypadku wiemy, że szalone zachowanie AlphaGo nie jest spowodowane celowo dodanymi rzeczami zwanymi „emocjami”, ale wadą algorytmu. Ale zachowuje się dokładnie tak, jak spanikował.
Jeśli tak się często zdarza dla AI. Mogą się przydać korzyści, jeśli sam się o tym dowie i pomyśl dwa razy, jeśli to się stanie. Jeśli AlphaGo wykryje problem i zmieni strategię, może grać lepiej lub gorzej. Nie jest mało prawdopodobne, aby grała gorzej, gdyby nie wykonała żadnych obliczeń dla innych podejść. W przypadku, gdyby grałaby gorzej, moglibyśmy powiedzieć, że cierpi z powodu „emocji”, i to może być powód, dla którego niektórzy ludzie myślą, że emocje mogą być wadą ludzi. Ale to nie byłaby prawdziwa przyczyna problemu. Prawdziwą przyczyną jest to, że po prostu nie zna żadnych sposobów na zagwarantowanie wygranej, a zmiana strategii to tylko próba rozwiązania problemu. Komentatorzy uważają, że istnieją lepsze sposoby (które również nie gwarantują wygranej, ale miały większą szansę), ale jej algorytm nie jest W tej sytuacji mogę się dowiedzieć. Nawet u ludzi rozwiązanie wszystkiego, co dotyczy emocji, raczej nie usunie emocji, ale pewne treningi, aby upewnić się, że rozumiesz sytuację na tyle, by działać spokojnie.
Wtedy ktoś musi się spierać, czy jest to rodzaj emocji, czy nie. Zwykle nie mówimy, że małe owady mają ludzkie emocje, ponieważ ich nie rozumiemy i nie chcemy im pomóc. Ale łatwo jest wiedzieć, że niektórzy z nich mogą panikować w desperackich sytuacjach, tak jak AlphaGo. Powiedziałbym, że te reakcje oparte są na tej samej logice i są przynajmniej powodem, dla którego emocje podobne do ludzkich mogą być potencjalnie przydatne. Po prostu nie są wyrażane w sposób zrozumiały dla człowieka, ponieważ nie zamierzali wzywać człowieka do pomocy.
Jeśli próbują zrozumieć własne zachowanie lub wezwać kogoś do pomocy, dobrze być podobnym do człowieka. Niektóre zwierzęta mogą wyczuwać ludzkie emocje i do pewnego stopnia wyrażać emocje zrozumiałe dla człowieka. Celem jest interakcja z ludźmi. Ewoluowali, aby mieć tę umiejętność, ponieważ w pewnym momencie jej potrzebowali. Prawdopodobnie potrzebowałaby go też w pełni silna sztuczna inteligencja. Zauważ też, że odwrotność posiadania pełnych emocji może być szalona.
Jest to prawdopodobnie szybki sposób na utratę zaufania, jeśli ktoś po prostu wdroży emocje naśladujące ludzi z niewielkim zrozumieniem w pierwszych pokoleniach.
Słabe AI
Ale czy są jakieś cele, aby mieć emocje, zanim ktoś chciał silnej AI? Powiedziałbym „nie”, nie ma żadnych nieodłącznych powodów, dla których muszą mieć emocje. Ale nieuchronnie ktoś i tak będzie chciał wdrożyć naśladowane emocje. To, czy „potrzebujemy” emocji, jest po prostu bzdurą.
Faktem jest, że nawet niektóre programy bez inteligencji zawierały pewne „emocjonalne” elementy w swoich interfejsach użytkownika. Mogą wyglądać nieprofesjonalnie, ale nie każde zadanie wymaga profesjonalizmu, aby mogły być całkowicie akceptowane. Są jak emocje w muzyce i sztuce. W ten sposób ktoś również zaprojektuje swoją słabą sztuczną inteligencję. Ale tak naprawdę nie są to emocje AI, ale ich twórcy. Jeśli czujesz się lepiej lub gorzej z powodu ich emocji, nie będziesz traktować poszczególnych AI w różny sposób, ale ten model lub marka jako całość.
Alternatywnie ktoś może zasadzić tam jakieś osobowości, jak w grze fabularnej. Ponownie, nie ma powodu, aby to mieć, ale nieuchronnie ktoś to zrobi, ponieważ oczywiście miał jakiś rynek, gdy gra RPG.
W obu przypadkach emocje tak naprawdę nie pochodzą od samej AI. Byłoby to łatwe do wdrożenia, ponieważ człowiek nie spodziewa się, że będzie dokładnie taki jak człowiek, ale stara się zrozumieć, co mieli na myśli. Uświadomienie sobie tych emocji może być znacznie łatwiejsze.
Aspekty emocji
Przepraszamy za opublikowanie tutaj niektórych oryginalnych badań. Zrobiłem listę emocji w 2012 roku, z której widzę 4 aspekty emocji. Jeśli wszystkie zostaną wdrożone, powiedziałbym, że są dokładnie tymi samymi emocjami, co ludzie. Nie wydają się prawdziwe, jeśli tylko niektóre z nich są zaimplementowane, ale to nie znaczy, że całkowicie się mylą.
- Powód lub pierwotny problem logiczny, którego AI nie może rozwiązać. AlphaGo miał już powód, ale nic więcej. Jeśli muszę dokonać dokładnej definicji, powiedziałbym, że jest to stan, w którym wiele równie ważnych heurystyk nie zgadza się ze sobą.
- Kontekst lub która część obecnego podejścia jest uważana za nieskuteczną i prawdopodobnie powinna zostać zastąpiona. To wyróżnia smutek, zmartwienie i namiętność.
- Obecny stan, to, czy czuje się wiodący, czy też jego wiara lub fakt powinien najpierw stać się zły (lub cały czas był zły), jeśli coś pójdzie nie tak. To wyróżnia smutek, miłość i dumę.
- Plan lub prośba. Przypuszczam, że niektóre udomowione zwierzaki już to miały. I przypuszczam, że miały one pewne ustalone wzorce, które nie są zbyt trudne do uzyskania. Nawet sztuka może je łatwo pomieścić. W przeciwieństwie do przyczyn, nie są one prawdopodobnie związane z żadnymi algorytmami i wiele z nich może pojawić się razem.
- Kto miał ponosić odpowiedzialność, jeśli emocje nie zmieniły niczego. To wyróżnia ciekawość, wściekłość i smutek.
- Jaki jest domniemany plan, jeśli emocja nie zmieni niczego. To wyróżnia rozczarowanie, smutek i zaskoczenie.
- Źródło. Bez kontekstu nawet człowiek nie jest w stanie rzetelnie powiedzieć, że ktoś płacze za to, że się poruszył, był wdzięczny albo uśmiechnął się z powodu zawstydzenia. W większości innych przypadków nie ma nawet słów opisujących je. Nie robi to żadnej różnicy, jeśli AI nie rozróżnia ani nie pokazuje tego specjalnie. Jest prawdopodobne, że nauczą się ich automatycznie (i niedokładnie jako ludzie) w punkcie, w którym będą mogli nauczyć się rozumieć ludzkie języki.
- Pomiary, takie jak to, jak pilny lub ważny jest problem, a nawet jak prawdopodobne są prawdziwe emocje. Powiedziałbym, że nie można go wdrożyć w AI. Ludzie nie muszą ich szanować, nawet jeśli są dokładnie tacy jak ludzie. Ale ludzie nauczą się rozumieć sztuczną inteligencję, jeśli to naprawdę ma znaczenie, nawet jeśli wcale nie są jak ludzie. W rzeczywistości uważam, że niektóre z bardzo słabych emocji (takie jak myślenie, że coś jest zbyt głupie i nudne, że nie umiesz komentować) istnieją prawie wyłącznie w emotikonach, gdzie ktoś zamierza pokazać ci dokładnie tę emocję i prawie wcale zauważalne w prawdziwym życiu lub w dowolnych skomplikowanych scenariuszach. Przypuszczałem, że na początku może tak być również w przypadku AI. W najgorszym przypadku są one zwykle znane jako „emocje”, ponieważ w takich przypadkach działają emotikony, więc „
Kiedy więc możliwe stają się silne AI, żadne z nich nie byłoby nieosiągalne, chociaż nawiązywanie połączeń może być bardzo pracochłonne. Więc powiedziałbym, że gdyby istniała potrzeba silnych AI, absolutnie mieliby emocje.