Dlaczego etyka nie jest bardziej zintegrowana z obecnymi systemami sztucznej inteligencji?


9

Jestem doktorantem informatyki i obecnie tworzę najnowocześniejszy przegląd aplikacji wykonanych w Etyce Maszyn (multidyscyplinarna dziedzina łącząca filozofię i sztuczną inteligencję, która zajmuje się tworzeniem jawnych programów lub agentów etycznych). Wydaje się, że dziedzina zawiera głównie argumenty teoretyczne i jest stosunkowo mało wdrożeń, mimo że w tej dziedzinie jest wiele osób z wykształceniem technicznym.

Rozumiem, że ponieważ w grę wchodzi etyka, nie ma żadnej podstawowej prawdy, a ponieważ jest to część filozofii, można się pogubić w sporze o to, jaki rodzaj etyki należy wdrożyć i jak najlepiej to zrobić. Jednak w informatyce zwykle próbuje się nawet wdrożyć prostą implementację, aby pokazać możliwości lub ograniczenia twojego podejścia.

Jakie są możliwe powody, dla których tak mało zrobiono, jeśli chodzi o jawne wdrażanie etyki w sztucznej inteligencji i eksperymentowanie z nią?


2
Przykłady podejść można znaleźć w tym i niniejszym dokumencie przeglądowym.
Suzanne,

Odpowiedzi:


2

To z konieczności odpowiedź na wysokim poziomie i wysoce spekulacyjna, ale zastanawiałem się nad tym pytaniem i oto moje przemyślenia:

  • Wdrożenie algorytmów etycznych wymaga matematycznych podstaw filozofii, ponieważ komputery są silnikami różnicowymi

Po słynnej porażce Russella i Whitehead i twierdzeniu o niekompletności Gödela wydaje się to problematyczne.

  • Sztuczna inteligencja jest dziedziną o wysokim stopniu zastosowania, szczególnie dzisiaj, jeśli chodzi o ciągłą walidację głębokiego uczenia się i żadna firma nie chce zbliżyć się do kwestii etyki, chyba że jest zmuszona

Widzisz to w samochodach samojezdnych, ponieważ inżynierowie nie mają innego wyboru, jak poradzić sobie z problemem. Z drugiej strony nie sądzę, że zobaczysz wiele algorytmicznych firm obrotu giełdowego, w których działalnością jest wydajność Pareto , martwiąca się o etykę lub społeczne skutki spekulacji finansowych. (Wydaje się, że rozwiązaniem „flash crash” były zasady tymczasowego zawieszenia handlu zamiast zajmowania się wartością społeczną handlu algorytmicznego o wysokiej częstotliwości.) Bardziej oczywistym przykładem jest to, że firmy społecznościowe ignorują ekstremalne ilości nadużywania informacji (dezinformacja oraz dezinformacji) zamieszczanych na ich stronach, powołując się na niewiedzę, co jest wysoce podejrzane, ponieważ działalność generowana przez nadużycie informacji pozytywnie wpływa na ich wyniki finansowe.

  • Zastosowane pola zwykle zależą głównie od zysków

Podstawową dyrektywą korporacji jest zwrot zysków inwestorom. Nierzadko korporacje łamią prawo, gdy oczekuje się, że grzywny i kary będą niższe niż zysk osiągnięty z nielegalnej działalności. (W biznesie istnieje koncepcja etyki, ale ogólnie kultura wydaje się oceniać ludzi i firmy na podstawie tego, ile zarabiają, bez względu na środki).

  • Wdrożenie etyki maszynowej jest badane w obszarach, w których są one niezbędne do sprzedaży produktu, ale gdzie indziej jest to nadal w dużej mierze hipotetyczne

Jeśli superinteligencje ewoluują i niszczą ludzkość (o czym ostrzegają niektórzy bardzo inteligentni ludzie o lepszych umiejętnościach matematycznych), mam wrażenie, że będzie to funkcja natury, gdzie nieograniczona ewolucja tych algorytmów jest spowodowana ekonomicznymi czynnikami, które koncentrują się na hiper - automaty partyzanckie w branżach takich jak spekulacja finansowa i autonomiczna wojna. Zasadniczo, ściganie zysków za wszelką cenę, niezależnie od skutków.


Ciekawe podejście, aspekt zysków! Nie myślałem o tym, skoro byłem tak skoncentrowany na przyczynach badawczych, ale ma sens, że przemysł nie wywiera presji na badania, aby dalej je kontynuować.
Suzanne,

@SuzanneTolmeijer Dzięki. Od kilku lat zagłębiam się w związek teorii gier z etyką. (Głównie wczesna filozofia, w której na przykład „równowaga” była uważana za „dobrą” - równowaga jest funkcją równowagi i może być precyzyjnie zdefiniowana matematycznie. Odnosi się do ekonomii, ponieważ stabilność jest ogólnie rozumiana jako optymalna, gdzie niestabilność jest potencjalnie katastrofalna). Ale nie jestem jedynym twórcą sztucznej inteligencji, który poruszył ekonomiczne czynniki w tej dziedzinie, i potencjalne niebezpieczeństwa związane z tym, co nazywam „hiperpartyjną sztuczną inteligencją”.
DukeZhou

1

Wydaje mi się, że częścią problemu jest to, że bardzo mało jest etycznych wdrożeń technologii AI / ML, po prostu dlatego, że nie ma potrzeby ani właściwego stosowania ram teoretycznych.

Rozumiem przez to, że nie ma istotnych sposobów zastosowania tego zrozumienia do algorytmów i modeli, które nie mogą oddziaływać w znaczący sposób. Mamy tak duże ramy teoretyczne dotyczące bezpieczeństwa / etyki AI, ponieważ jest to niezwykle ważne. Musimy opracować bezpieczne wytyczne dotyczące wdrażania silnej AI przed jej utworzeniem.

Niektóre bardzo skoncentrowane artykuły zaczęły zawężać kwestie tworzenia etycznych / bezpiecznych systemów AI. Zobacz Konkretne problemy w bezpieczeństwie AI


Wydaje się, że istnieje potrzeba wyraźnej etyki, przynajmniej wielu badaczy wzywa do rozwoju jawnej etyki (np. Moor 2006 ). Jeśli chodzi o prawidłowe stosowanie ram teoretycznych, możesz mieć rację: implementacja w niektórych przypadkach wymaga interpretacji, co może okazać się trudne. Zgadzasz się jednak, że bezpieczne wytyczne dotyczące sztucznej inteligencji są ważne, co oznacza praktyczne wytyczne dotyczące tego, co uważamy za „właściwe” lub „etyczne” dla naszych maszyn. Wytyczne te będą sugerować, jak w jakiś sposób wdrożyć zasady etyki w maszynach.
Suzanne,

1

Dzięki metodzie imitacji najbardziej odpowiednie zachowanie można zintegrować ze sztuczną inteligencją. Sztuczna inteligencja może zostać przekształcona, gdy zmieni się pozycja etyczna. Służy do celów ideologicznych lub do zbierania informacji. Nie jest jasne, czym jest robot.


1

Możemy wziąć model błędu do księgowego. Rozpoznanie stronniczości i wariancji wydajności w sieciach neuronowych może być pierwszym krokiem. Następnie możemy omówić, czy taka wydajność jest dozwolona. O ile wiemy, praktykowanie grup etnicznych wymaga badań empirycznych i terenowych. nie możemy po prostu wziąć uzasadnienia i papierowych esejów, aby ustalić, czy działania wyuczonych maszyn są złe, czy nie. Można go dalej podzielić na wypadki, błędy, a nawet błędy utworzone od programistów.


Interesującą kwestią, którą tu poruszasz, jest w zasadzie: jakie miary można zastosować do przetestowania systemu i jak ustalić, czy system działa dokładnie? Czegoś brakuje w tej dziedzinie i wydaje mi się, że jest to część problemu: jak przetestować swój system bez prawdy gruntowej? Jakie miary (wymiary w) mają sens w kontekście jawnych algorytmów etycznych? Bez tego nie ma możliwości porównywania systemów, co ogranicza postęp w terenie.
Suzanne,

1

Intuicyjnie wydaje się, że mało jest badań nad wdrażaniem etyki AI, ponieważ:

  1. Wydaje się, że społeczeństwo jako całość zgadza się, że obecny stan inteligencji maszynowej nie jest wystarczająco silny, aby uznać ją za świadomą lub świadomą. Dlatego nie musimy (jeszcze) nadawać mu praw etycznych.

  2. Wdrożenie etycznego zachowania w programie wymaga metody umożliwiającej komputerowi interpretację „znaczenia”, czego jeszcze nie wiemy.

Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.