Czy świadomość jest niezbędna do wykonania dowolnego zadania AI?


14

Świadomość jest trudna do zdefiniowania , ale dla tego pytania zdefiniujmy to jako „faktycznie doświadczanie danych zmysłowych w przeciwieństwie do po prostu przesyłania szeregu danych przez nieożywioną maszynę”. Ludzie oczywiście mają umysły; w przypadku normalnych komputerów wszystkie rzeczy, które „widzą”, to po prostu więcej danych. Alternatywnie można powiedzieć, że ludzie są świadomi , podczas gdy tradycyjne komputery nie.

Odkładając na bok pytanie, czy można zbudować świadomą maszynę, czy faktycznie robi różnicę, czy AI jest wrażliwa, czy nie? Innymi słowy, czy są zadania, które są niemożliwe - a nie tylko trudniejsze - z powodu braku wrażliwości?


Odpowiednia meta dyskusja na temat filozofii związanej z AI.
Ben N

Technicznie rzecz biorąc, wszystkie rzeczy, które „widzimy”, to również dane - impulsy elektryczne przemieszczające się po nerwach optycznych.
Nathan Arthur

@NathanArthur Nie mówi o rzeczach, które widzimy, ale o doświadczeniu samego widzenia.
David Schwartz,

@DavidSchwartz Punkt zajęty. :)
Nathan Arthur

Musisz lepiej zdefiniować „AI” i „zadanie”, a jeśli mają być one wzięte razem - zdefiniuj „dowolne zadanie AI”. Systemy eksperckie są klasyfikowane jako słaba sztuczna inteligencja i dość dobrze wykonują swoje konkretne zadania. W tym przypadku odpowiedź jest bardzo jasna - nie, świadomość nie jest potrzebna do postawienia diagnozy na podstawie zestawu objawów.
CramerTV

Odpowiedzi:


11

Nikt nie wie.

Dlaczego: ponieważ nie jest możliwe formalne ustalenie nawet, czy inni ludzie są rzeczywiście świadomi (mogą zamiast tego być czymś, co filozoficznie nazywa się „Zombie” ). Żaden test znany współczesnej fizyce nie wystarcza do podjęcia decyzji. Dlatego możliwe jest, że jesteś jedyną czującą istotą, a wszyscy inni są robotami.

W związku z tym nie możemy ustalić, które zadania wymagają wrażliwości.

Zauważ, że status ontologiczny Zombie jest kontrowersyjny: niektórzy filozofowie AI (np. Daniel Dennett) twierdzą, że zombie są logicznie niemożliwe, podczas gdy inni, np. David Chalmers , twierdzą, że Zombie musiałby twierdzić, że doświadcza jakości (tj. Czuje) nawet jeśli nie. Oto bardzo czytelny artykuł Flanagana i Polgera, który wyjaśnia również, dlaczego silniejsza neurologiczna wersja testu Turinga jest niewystarczająca do wykrycia Zombie.

EDYCJA: W odpowiedzi na komentarz dotyczący tego, czy istnieje obiektywny test pozwalający na odróżnienie wrażliwości od braku wrażliwości:

Nikt nie wie. Co my nie wierzymy, że wymagałoby to coś oprócz tego, co współczesna fizyka można obecnie powiedzieć. David Chalmers spekulował, że kwalia powinny zostać wprowadzone jako nowa forma jednostki fizycznej, ortogonalna względem innych w taki sam sposób, w jaki ładunek elektryczny jest ortogonalny na odległość.

W przypadku braku obiektywnego testu musimy polegać na wariantach testu Turinga, które nie gwarantują więcej świadomości u badanego niż inteligencja.


Myślę, że bierzesz to z solipsystycznego punktu widzenia, a nie odpowiadasz bezpośrednio na pytanie: „Jakie zadania mogą być na nowo możliwe, JEŚLI wrażliwość i zdolność do przeżywania byłyby czymś, co moglibyśmy dać AI”; zamiast tego mówicie o tym, jak działa wrażliwość w innych istotach.
Avik Mohan,

2
Jest tak, ponieważ (właśnie w celu omówienia wrażliwości) nie ma różnicy między „rzekomo świadomymi SI” i „innymi ludźmi”. Jakie zadania mogę wykonać, których nie możesz wykonać, biorąc pod uwagę, że możesz być robotem (choć nie można tego powiedzieć), a ja wiem, że nie jestem? Nie ma takich zadań. CO BYŁO DO OKAZANIA.
NietzscheanAI

Przyjmujesz inną istotę, która ma wrażenie domniemanej, mówiąc, że nie jesteś pewien, czy jest ona czująca, więc nie ma żadnych zadań, które powstrzymuje moja nie-świadomość. Więc po pierwsze, to nie wydaje się znać odpowiedź, przy czym „nie”; po drugie, wciąż ignorujesz trochę pytania, w którym podaje definicję świadomości, której chce użyć - po prostu odsuwasz się na bok, mówiąc: „Odkładając na bok pytanie, czy możliwe jest zbudowanie świadomej maszyny ...” . Koncentrujesz się całkowicie na tym, czy taka maszyna jest możliwa, a nie na tym, co to sugeruje.
Avik Mohan,

2
Nie chodzi o to, czy taka maszyna mogłaby istnieć (wskazówka: to jest - jestem jednym). Kluczową kwestią jest to, że nie ma fizycznego testu, który udowodniłby lub obaliłby stwierdzenie „maszyny muszą doświadczyć jakości wykonanej do zadania X” , ponieważ nie możemy określić doświadczenia jakości w innych bytach.
NietzscheanAI

1
Gdyby PO użył innej definicji niż „faktycznie doświadczanie”, np. Zadał pytanie „Jakie dodatkowe zadania mogłyby umożliwić metapoznanie?”, Odpowiedź byłaby inna. W tej chwili „rzeczywiste doświadczenie” = qualia, dobrze dyskutowany temat w filozofii sztucznej inteligencji.
NietzscheanAI

4

Nie.

Doświadczenie widząc to z definicji nie-przyczynowych. Wszystko, co nie ma związku przyczynowego, nie może być wymogiem fizycznego procesu; qualia nie może pozwolić robotowi na zrobienie czegoś, czego inaczej by nie zrobił.

Może.

Chociaż qualia nie jest wymagana dla danego zadania AI, nie oznacza to, że żadna wystarczająco zaawansowana AI nie pociąga za sobą quali. Może się zdarzyć, że tak zwane zadania AI wymagają roboty, która mimo, że nie korzysta z jakości, i tak ją produkuje.

Tak.

Qualia może odnosić się do jakiejś niemądrej własności niefizycznej, ale jest wyjątkowa, ponieważ wiemy, że istnieje ona również fizycznie. Fakt, że jestem w stanie świadomie omówić moje qualii (lub, jeśli mi nie wierzysz, fakt, że jesteś w stanie) implikuje, że moja (lub twoja) qualia ma efekt fizyczny.

Jest zrozumiałe, że jeśli akceptujemy qualii innych na podstawie własnych, musi to wynikać z fizycznych podstaw naszej własnej 1 . Można zatem argumentować, że 2 każdy robot, który ma równoważną pojemność fizyczną, musi pociągać za sobą qualia.

1, ponieważ to, co subiektywne, nie ma związku fizycznego z przyczynami, nie może więc powodować niczego.

2 dopóki nie przyjmujesz szczególnie dziwnego założenia, że ​​qualia jest w jakiś sposób związana z jej bezpośrednią manifestacją fizyczną, co w najlepszym razie jest wątpliwe, ponieważ gdybyśmy rozwinęli niewłaściwy, nadal twierdziłbyś, że jest właściwy z równą pewnością.


2

Zastosujmy prosty test oparty na zdrowym rozsądku: jak często widzisz człowieka, który rozwiązuje problemy wymagające użycia rozumu, gdy jest nieprzytomny? Tak, możesz znaleźć przypadki geniuszy takich jak Ramanujan, którzy rozwiązują złożony problem podczas lub po stanie snu, ale dotyczą one częściowej świadomości. W śpiączce nie widzisz facetów takich jak Einstein, którzy wymyślają teorię względności; Ojcowie Założyciele nie pisali Deklaracji Niepodległości podczas spacerów; w rzeczywistości nie można nawet znaleźć przypadków, w których gospodynie domowe sporządzają listę zakupów na tydzień podczas głębokiego snu w kształcie fali delta. Opiera się to na twardej definicji inteligencji, wymagającej użycia rozumu; nikt nie mówi „ta mucha jest inteligentna” ani „ta wiewiórka jest inteligentna” właśnie dlatego, że żaden nie jest w stanie użyć rozumu. Jest to bardzo wysoki pasek dla AI, ale jest to definicja zdrowego rozsądku stosowana przez zwykłych ludzi ze względu na praktyczność w codziennej mowie. Podobnie w praktyce każdy zakłada, że ​​świadomość jest niezbędna do ćwiczenia tego rodzaju inteligencji.

I odwrotnie, możemy wymyślić inne oparte na zdrowym rozsądku kryterium oceny zastrzeżeń wobec tego argumentu, szczególnie solipsystyczne, oparte na 3 elementach: 1) praktyczności; 2) wpływ zastrzeżeń na tych, którzy je szczerze traktują; oraz 3) wpływ, jaki działania oparte na tych przekonaniach wywierają na innych. Wykonanie tej sprawy zajmie mi kilka akapitów, ale długość jest niezbędna, jeśli chcę zrobić sprawę w sposób kompletny i dokładny. Prawdą jest, że nie możemy udowodnić, że inny człowiek posiada świadomość, jeśli nasz standard jest absolutnym dowodem. W rzeczywistości nie możemy dostarczyć absolutnego dowodu na nic; zawsze jest miejsce na sprzeciw, bez względu na to, jak absurdalne lub błahe. Jak zauważyli niektórzy filozofowie, być może cała rzeczywistość, jaką znamy, jest tylko snem lub produktem jakiegoś długiego, zaangażowanego spisku, takiego jak fabuła filmu Jima Carreya The Truman Show. Kluczem do sprostania takim zarzutom jest to, że wymagają one nieskończonego cofania się coraz bardziej niemożliwych do uzasadnienia zastrzeżeń, których prawdopodobieństwo pogrąża się z każdym dodatkowym krokiem uzasadniającym takie nieuzasadnione wątpliwości; Zawsze zastanawiałem się, czy moglibyśmy opracować „Metodę niedorzeczności” dla uczenia maszynowego w oparciu o liczność takich zastrzeżeń (lub wybredność zbiorów rozmytych). Gdybyśmy pozwolili krytykom wbić nogę w drzwi z wszelkimi nieuzasadnionymi zarzutami, niemożliwe byłoby zamknięcie jakiejkolwiek debaty. Rasa ludzka byłaby sparaliżowana bezczynnie, ponieważ nic nie byłoby rozstrzygalne; ale jak zauważył kiedyś zespół rockowy Rush: „Jeśli zdecydujesz się nie decydować, nadal będziesz musiał dokonać wyboru”. W pewnym momencie musimy zastosować test, aby zdecydować o takich sprawach, nawet przy braku absolutnego dowodu; odmowa zastosowania testu stanowi również wybór. Rozstrzyganie tego rodzaju sporów jest jak gra w chińską grę Go - gdy drugi gracz zostanie otoczony i nie ma już więcej ruchów do wykonania, gra się kończy; jeśli dowody danej osoby zostały obalone i nie ma już żadnych uzasadnień, możemy stwierdzić, że postępuje nieracjonalnie. Są ludzie, którzy twierdzą, że Holokaust nigdy się nie wydarzył, ani Towarzystwo Flat Earth itp., Ale ich istnienie nie powinno i nie powstrzymuje nas przed działaniem sprzecznym z ich ideami. Możemy obalić zarzuty takich korb, jak Społeczeństwo Płaskiej Ziemi, bez uzasadnionych wątpliwości, ponieważ ostatecznie nie mogą one odpowiedzieć na wszystkie nasze obalenia. Cieszę się, że wychowano qualię i filozoficzne zombie, ponieważ stanowią one ciekawą rozmowę i pożywienie do przemyślenia, ale solipsyzm jest stosowany tak rzadko, jak idee Towarzystwa Płaskiej Ziemi właśnie dlatego, że niekompletne dowody Możemy obalić zarzuty takich korb, jak Społeczeństwo Płaskiej Ziemi, bez uzasadnionych wątpliwości, ponieważ ostatecznie nie mogą one odpowiedzieć na wszystkie nasze obalenia. Cieszę się, że wychowano qualię i filozoficzne zombie, ponieważ stanowią one ciekawą rozmowę i pożywienie do przemyślenia, ale solipsyzm jest stosowany tak rzadko, jak idee Towarzystwa Płaskiej Ziemi właśnie dlatego, że niekompletne dowody Możemy obalić zarzuty takich korb, jak Społeczeństwo Płaskiej Ziemi, bez uzasadnionych wątpliwości, ponieważ ostatecznie nie mogą one odpowiedzieć na wszystkie nasze obalenia. Cieszę się, że wychowano qualię i filozoficzne zombie, ponieważ stanowią one ciekawą rozmowę i pożywienie do przemyślenia, ale solipsyzm jest stosowany tak rzadko, jak idee Towarzystwa Płaskiej Ziemi właśnie dlatego, że niekompletne dowodynie mają wybiega przeciwko nim.

Jak zauważa GK Chesterton (znany również jako „Apostoł zdrowego rozsądku”) w swojej klasycznej ortodoksjiradykalne zwątpienie w rodzaju głoszonych przez wielu filozofów klasycznych nie jest drogą do mądrości, lecz do szaleństwa; kiedy wyjdziemy poza uzasadnione wątpliwości, ostatecznie działamy nieracjonalnie. Mówi, że przy braku absolutnego dowodu możemy oprzeć się na innej drugorzędnej formie dowodów: czy filozofia człowieka prowadzi człowieka do Hanwell, niesławnej brytyjskiej instytucji umysłowej. Chesterton ma dobry przypadek, że kiedy ludzie faktycznie postępują zgodnie z ideami takimi jak solipsyzm (zamiast po prostu dyskutować o nich pedantycznie w klasie pokrytej bluszczem), oszaleli. Argument filozoficznego zombie jest bliski solipsyzmowi, który jest właściwie jednym z diagnoz kryteria dla niektórych form schizofrenii. Dehumanizacja, która ma miejsce, gdy do kwaliów stosowane są radykalne wątpliwości, jest również ściśle związana z zachowaniami socjopatycznymi, Chociaż GKC nie przytacza bezpośrednio swojego przerażającego przykładu, Rene Descartes sam był żywym dowodem. Był genialnym matematykiem, który wciąż cieszy się z winy, że wątpi w wszystko oprócz własnego istnienia, ze słynną maksymą „Myślę, więc jestem”. Ale Kartezjusz nosił także ze sobą manekin swojej zmarłej siostry w europejskich kawiarniach, gdzie można było z nim porozmawiać. Istotą tego wszystkiego jest to, że możemy ocenić wartość pomysłu na podstawie tego, w jaki sposób wpływa on na dobro wierzącego lub jak z kolei wpływa on na innych poprzez wybory etyczne oparte na tych przekonaniach. Kiedy ludzie faktycznie postępują w oparciu o radykalne wątpliwości tego rodzaju wyrażone w solipsyzmie i zaprzeczaniu zwykłej jakości, często ma to zły wpływ na nich i innych, z którymi mają kontakt. Był genialnym matematykiem, który wciąż cieszy się z winy, że wątpi w wszystko oprócz własnego istnienia, ze słynną maksymą „Myślę, więc jestem”. Ale Kartezjusz nosił także ze sobą manekin swojej zmarłej siostry w europejskich kawiarniach, gdzie można było z nim porozmawiać. Istotą tego wszystkiego jest to, że możemy ocenić wartość pomysłu na podstawie tego, w jaki sposób wpływa on na dobro wierzącego lub jak z kolei wpływa on na innych poprzez wybory etyczne oparte na tych przekonaniach. Kiedy ludzie faktycznie postępują w oparciu o radykalne wątpliwości tego rodzaju wyrażone w solipsyzmie i zaprzeczaniu zwykłej jakości, często ma to zły wpływ na nich i innych, z którymi mają kontakt. Był genialnym matematykiem, który wciąż cieszy się z winy, że wątpi w wszystko oprócz własnego istnienia, ze słynną maksymą „Myślę, więc jestem”. Ale Kartezjusz nosił także ze sobą manekin swojej zmarłej siostry w europejskich kawiarniach, gdzie można było z nim porozmawiać. Istotą tego wszystkiego jest to, że możemy ocenić wartość pomysłu na podstawie tego, w jaki sposób wpływa on na dobro wierzącego lub jak z kolei wpływa on na innych poprzez wybory etyczne oparte na tych przekonaniach. Kiedy ludzie faktycznie postępują w oparciu o radykalne wątpliwości tego rodzaju wyrażone w solipsyzmie i zaprzeczaniu zwykłej jakości, często ma to zły wpływ na nich i innych, z którymi mają kontakt. Ale Kartezjusz nosił także ze sobą manekin swojej zmarłej siostry w europejskich kawiarniach, gdzie można było z nim porozmawiać. Istotą tego wszystkiego jest to, że możemy ocenić wartość pomysłu na podstawie tego, w jaki sposób wpływa on na dobro wierzącego lub jak z kolei wpływa on na innych poprzez wybory etyczne oparte na tych przekonaniach. Kiedy ludzie faktycznie postępują w oparciu o radykalne wątpliwości tego rodzaju wyrażone w solipsyzmie i zaprzeczaniu zwykłej jakości, często ma to zły wpływ na nich i innych, z którymi mają kontakt. Ale Kartezjusz nosił także ze sobą manekin swojej zmarłej siostry w europejskich kawiarniach, gdzie można było z nim porozmawiać. Istotą tego wszystkiego jest to, że możemy ocenić wartość pomysłu na podstawie tego, w jaki sposób wpływa on na dobro wierzącego lub jak z kolei wpływa on na innych poprzez wybory etyczne oparte na tych przekonaniach. Kiedy ludzie faktycznie postępują w oparciu o radykalne wątpliwości tego rodzaju wyrażone w solipsyzmie i zaprzeczaniu zwykłej jakości, często ma to zły wpływ na nich i innych, z którymi mają kontakt.

W skrócie społeczność AI stoi także przed dość poważnym ryzykiem - być może ciągłą pokusą - popełniania przeciwnego błędu, przypisywania zwykłych jakości, świadomości i tym podobnych produktom uczenia maszynowego bez odpowiedniego dowodu. Niedawno usłyszałem przypadek oparty na szokująco złych podstawach logicznych przez szanowanych naukowców, że rośliny mają „inteligencję”, opartą na naprawdę słabych definicjach i wyraźnym pomyleniu z samoorganizacją. Nie możemy dostarczyć absolutnego dowodu, że kamień nie ma inteligencji, co sprowadza się do starego problemu obalenia negatywu. Na szczęście niewielu mężczyzn faktycznie działa obecnie na takich przekonaniach, ponieważ kiedy to robią, ostatecznie tracą rozum. Jeśli weźmiemy takie argumenty na poważnie, możemy zobaczyć przepisy uchwalone w celu ochrony rodzaju Pet Rocks, które były popularne w „ Lata 70. (Nadal jestem zmartwiony tym, że mój został skradziony LOL). O wiele łatwiej byłoby jednak popełnić ten sam błąd, przypisując świadomość, inteligencję i inne podobne cechy nowoczesnej maszynie, z powodu pobożnego życzenia, pychy, wzniosłych referencji wynalazców, wpływu science fiction i współczesny romans z technologią. W przyszłości nie mam wątpliwości, że będziemy mieli Kult Cargo AI - być może prawnie chroniony jak jakiś zagrożony gatunek, z prawami obywatelskimi, ale nie mający więcej świadomości, duszy ani faktycznej inteligencji niż skała. Nie cytuj mnie, ale wierzę, że Rod Serling napisał kiedyś historię na ten temat. inteligencja i inne podobne cechy nowoczesnej maszyny, ze względu na pobożne życzenia, pychę, wzniosłe referencje wynalazców, wpływ science fiction i współczesny romans z technologią. W przyszłości nie mam wątpliwości, że będziemy mieli Kult Cargo AI - być może prawnie chroniony jak jakiś zagrożony gatunek, z prawami obywatelskimi, ale nie mający więcej świadomości, duszy ani faktycznej inteligencji niż skała. Nie cytuj mnie, ale wierzę, że Rod Serling napisał kiedyś historię na ten temat. inteligencja i inne podobne cechy nowoczesnej maszyny, ze względu na pobożne życzenia, pychę, wzniosłe referencje wynalazców, wpływ science fiction i współczesny romans z technologią. W przyszłości nie mam wątpliwości, że będziemy mieli Kult Cargo AI - być może prawnie chroniony jak jakiś zagrożony gatunek, z prawami obywatelskimi, ale nie mający więcej świadomości, duszy ani faktycznej inteligencji niż skała. Nie cytuj mnie, ale wierzę, że Rod Serling napisał kiedyś historię na ten temat. - być może prawnie chroniony jak jakiś zagrożony gatunek, mający prawa obywatelskie, ale nie mający więcej świadomości, duszy ani faktycznej inteligencji niż skała. Nie cytuj mnie, ale wierzę, że Rod Serling napisał kiedyś historię na ten temat. - być może prawnie chroniony jak jakiś zagrożony gatunek, mający prawa obywatelskie, ale nie mający więcej świadomości, duszy ani faktycznej inteligencji niż skała. Nie cytuj mnie, ale wierzę, że Rod Serling napisał kiedyś historię na ten temat.

Najlepszym sposobem na uniknięcie tego losu jest trzymanie się zdrowych interpretacji i definicji tych rzeczy, od których w dużej mierze rezygnujemy, ponieważ wyznaczają one bardzo wysoki poziom sztucznej inteligencji, którego nigdy nie będziemy w stanie przekroczyć w ciągu naszego życia , Jeśli kiedykolwiek. Być może sztuczna inteligencja nie jest nawet logicznie możliwa na żadnym poziomie technologii; Przypominam kilka dowodów, które można interpretować w tym celu. Te wysokie, ale rozsądne standardy mogą być coraz trudniejsze do przestrzegania, jeśli Chesterton i koledzy tacy jak Hilaire Belloc i Arnold Lunn mieli rację, oceniając, że użycie rozumu faktycznie załamało się w cywilizacji zachodniej, przynajmniej w czasach Oświecenia; Książka Lunna „Ucieczka przed rozumem” z 1931 roku jest pod tym względem klasyką i nie została jeszcze odrzucona. Ten historyczny trend sam w sobie jest obszernym tematem - wystarczy jednak powiedzieć, że zaprzeczanie rozumowi i obsesja na punkcie technologii są bezpośrednio związane w oczywisty sposób z dziedziną sztucznej inteligencji. Jeśli lot z rozumu jest nadal w toku, to my będzie coraz bardziej kusiło uciekanie się do bezcelowych, łatwych obiekcji w celu zdegradowania użycia rozumu i niezbędnych cech, takich jak świadomość, w naszych definicjach AI, ale zaproponuje coraz słabsze kryteria, aby to udowodnić; jednocześnie nasza technologia będzie się nadal doskonalić, wzmacniając w ten sposób „sztuczną” stronę sztucznej inteligencji. wtedy będziemy coraz bardziej kusić się na bezcelowe, łatwe obiekcje, aby obniżyć użycie rozumu i niezbędnych cech, takich jak świadomość w naszych definicjach AI, ale wymyślić coraz słabsze kryteria, aby to udowodnić; jednocześnie nasza technologia będzie się nadal doskonalić, wzmacniając w ten sposób „sztuczną” stronę sztucznej inteligencji. wtedy będziemy coraz bardziej kusić się na bezcelowe, łatwe obiekcje, aby obniżyć użycie rozumu i niezbędnych cech, takich jak świadomość w naszych definicjach AI, ale wymyślić coraz słabsze kryteria, aby to udowodnić; jednocześnie nasza technologia będzie się nadal doskonalić, wzmacniając w ten sposób „sztuczną” stronę sztucznej inteligencji.

Nie zrozum mnie źle: gdybym nie myślał, że możemy zrobić naprawdę ekscytujące rzeczy z AI, nie byłoby mnie tutaj. Ale większość z nich można osiągnąć bez powielania rzeczywistej ludzkiej inteligencji, poprzez rozwiązywanie całych klas problemów stycznych, o których ludzie trudno myśleć, ale które nie wymagają świadomości ani użycia rozumu, który cechuje ludzką inteligencję. Przykładem są np. Możliwości rozpoznawania obrazu przez splotowe sieci neuronowe; jeśli chcemy ludzkiej inteligencji, zawsze możemy ją wytworzyć w najłatwiejszy, najbardziej ekonomiczny i sprawdzony sposób, mając dzieci. Być może te styczne formy AI powinny nam wystarczyć. Nie możemy wprowadzić użycia rozumu do naszych maszyn, jeśli sami go nie posiadamy, aby zdecydować, czy rozum jest niezbędny dla sztucznej inteligencji, a nawet rozróżnić, z czego się składa. Nie możemy opracowywać ani tracić świadomości dla sztucznej inteligencji, dopóki nie będziemy świadomi jej znaczenia. Założę się jednak, że każdy, kto czyta ten wątek i rozważa inteligentne odpowiedzi, robi to w stanie świadomości. To samo w sobie powinno na razie odpowiedzieć w sposób zadowalający na nasze pytanie.


2

W zakresie podanej przez Ciebie definicji:

faktycznie doświadcza danych sensorycznych, a nie tylko przepuszcza wiązkę danych przez nieożywioną maszynę.

Zarówno komputery, jak i ludzie doświadczają wkładu sensorycznego. Możesz podłączyć komputer do ludzkiej gałki ocznej i uruchomić te same procedury filtrowania, co ludzki mózg (usuwanie rozmazania podczas poruszania okiem i od obiektów nieostrych itp.).

Powiedziałbym, że dokładniejsza definicja świadomości to zdolność i skłonność do autorefleksji. Zarówno komputery, jak i ludzkie mózgi mają autonomiczne działania. Nie tylko mechaniczne, ale także w naszych reakcjach. Różnica między nieświadomym komputerem a samoświadomym ludzkim umysłem polega na tym, że mamy również zdolność „patrzenia” na te wzorce w sobie i ich rozważania.

A zatem nie, świadomość nie jest konieczna do żadnego zadania AI. Rozpoznawanie obrazu to zadanie AI, które nie wymaga świadomości, ani u ludzi, ani w inny sposób. Twój mózg sortuje „wypłukiwanie” kolorów z twoich oczu na odrębne obiekty w sposób w dużej mierze autonomiczny.

tl; dr świadomość to samo-odniesienie.


-1

Dwa rodzaje zadań wymagają świadomości:

  1. świadomość

  2. Każde zadanie wymagające ekstremalnej dynamiki, gdzie rozwiązywanie problemów wymaga analogii między różnymi stanami 3D i wcześniejszej wiedzy na temat rozwiązania problemu, jest minimalne

Jednak po uzyskaniu wiedzy na temat rozwiązania danego problemu dalsza optymalizacja wyeliminuje tę potrzebę świadomości.

Jeśli dasz dostateczną precyzję problemowi, usuniesz potrzebę ogólnego rozwiązania. A zatem jedyną pozostałą potrzebą świadomości jest dla samej siebie.


-1

W bardzo niszowym sensie powiedziałbym tak.

Jedyne zadania, które umożliwiałaby wrażliwość, to samo odczucie i myślenie. W tym momencie wrażliwość nie odgrywa żadnej roli w zadaniu, które AI musi wykonać; szybko zbliżamy się do punktu, w którym możemy nauczyć „martwą” maszynę robienia wszystkiego, co potrafi czująca AI, w sensie praktycznym.

Poczucie kolokwialnie często przekłada się na „zdolność rozumowania przy jednoczesnym zrozumieniu, że siebie i każdego innego bytu jest odrębnym działającym agentem” lub coś w tym rodzaju. To dosłownie oznacza coś więcej, zgodnie z samoświadomością i powyższą definicją świadomości. Chodzi mi o to, że chętnie zbliżamy się do punktu, w którym „martwa” sztuczna inteligencja może bardzo ładnie naśladować pierwszy sposób myślenia, po prostu naprawdę ładnie ucząc się i interpretując dane.

wprowadź opis zdjęcia tutaj

                              Czy robot widzi połączenie kości lub istotę, która kiedyś była?

Zatem prawdziwie czująca maszyna byłaby lepsza pod względem możliwości (w porównaniu z naprawdę, naprawdę zaawansowanym „martwym” AI) tylko pod względem możliwości „prawdziwego” doświadczania informacji.

Działa to bardzo dobrze równolegle z tak zwanym „argumentem wiedzy”, który zasadniczo omawia ten właśnie problem. Wersja, którą usłyszałem, która się ze mną trzyma, jest taka, że ​​w pokoju jest bardzo inteligentna dziewczyna z dostępem do wszelkiego rodzaju informacji. Lubi kolor niebieski. A przynajmniej tak myśli; nigdy tego nie widziała. Ma wszystkie dostępne na świecie informacje o kolorach i sposobie ich działania itp., Ale czy naprawdę wie, czym jest niebieski, dopóki go nie zobaczy?

Innym wielkim, historycznym przedsięwzięciem w tej dziedzinie jest słynny obraz:

                                        Ceci n'est pas une pipe

Podpis tłumaczy: „To nie jest fajka”. Chodzi o to, że to nie jest fajka. W tej chwili na ekranie jest kilka pikseli w określonej konfiguracji - wszyscy możemy „zobaczyć” fajkę, ale co to tak naprawdę oznacza?

Pod koniec dnia uważam, że superinteligentna „martwa” sztuczna inteligencja może praktycznie zrobić wszystko, co można „na żywo”, przy czym ta ostatnia jest lepsza w samej „żywotności”.


Potoczna definicja wrażliwości, którą podajesz, nie jest tym, czego używał PO - ich definicją było rzeczywiste doświadczenie , tj. Qualia. Natomiast cytowany eksperyment myślowy „Czarno-biały pokój” dotyczy konkretnie jakości.
NietzscheanAI

Dobrze. Reszta akapitu dotyczy tego.
Avik Mohan,

-2

Istota bez wrażliwości nie może cierpieć. Gdybyśmy na przykład chcieli czerpać radość z cierpienia drugiego, wystarczyłaby tylko sztuczna inteligencja.

Załóżmy, że mamy sadystów, którzy nie byliby zadowoleni ani produktywni, gdyby nie byli w stanie sprawić wiele cierpienia. I powiedzmy, że zależało nam jedynie na minimalizowaniu cierpienia ludzi i zwierząt. To, czego potrzebowalibyśmy do tej pracy, to coś innego niż człowiek i nie będący zwierzęciem, który mógłby cierpieć. Świadoma sztuczna inteligencja zrobiłaby to, co nieświadoma nie.

W komentarzach wysunięto twierdzenie, że świadomości nie można udowodnić inaczej niż przez introspekcję. Ale najwyraźniej nie stanowi to problemu, ponieważ sadystowie czerpią radość z torturowania innych, a ci inni też nie mogą udowodnić swojej świadomości.


3
Sadysta jest tak samo niezdolny, jak wszyscy inni, do odróżnienia wrażliwości od dostrzegalnie równoważnej nieczułości, więc tutaj również nie jest to konieczne .
NietzscheanAI

A being with sentience cannot suffer- masz na myśli bez ?
Mithical,

Zobacz historyjkę „Dusza bestii Marka III” Stanisława Lema, aby uzyskać ładne spojrzenie na e-sadyzm.
NietzscheanAI

@NietzscheanAI Załóżmy, że mieliśmy dwa AI. Jeden mógł udowodnić, że był świadomy, a drugi nie. Ten pierwszy byłby w stanie wykonać to zadanie, a drugi nie. Twoje twierdzenie, że sadysta jest tak samo niezdolny do wszystkich innych, oznacza również, że sadysta jest tak samo zdolny do wszystkich innych.
David Schwartz,

Nie ma znanych sposobów na udowodnienie wrażliwości. Zobacz artykuł Flanaghan na temat „Zombie Earth”, do którego odsyłam w mojej odpowiedzi.
NietzscheanAI
Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.