Mam pytania inspirowane niedawnym skandalem rekrutacyjnym w Amazon, w którym oskarżano ich o dyskryminację kobiet w procesie rekrutacji. Więcej informacji tutaj :
Specjaliści od uczenia maszynowego Amazon.com Inc odkryli duży problem: ich nowy silnik rekrutacyjny nie lubił kobiet.
Zespół buduje programy komputerowe od 2014 roku, aby przejrzeć CV kandydatów do pracy w celu zmechanizowania poszukiwania najlepszych talentów ...
... eksperymentalne narzędzie zatrudniania firmy wykorzystywało sztuczną inteligencję, aby dawać kandydatom od 1 do 5 gwiazdek ...
... Ale do 2015 r. Firma zdała sobie sprawę, że jej nowy system nie ocenia kandydatów na stanowiska programistów i inne stanowiska techniczne w sposób neutralny pod względem płci.
Wynika to z tego, że modele komputerowe Amazon zostały przeszkolone w zakresie sprawdzania kandydatów poprzez obserwowanie wzorców w życiorysach przesyłanych do firmy przez okres 10 lat. Większość pochodzi od mężczyzn, co odzwierciedla męską dominację w branży technologicznej. (Aby zobaczyć grafikę dotyczącą podziałów płci w technologii, patrz: tutaj ) W efekcie system Amazon nauczył się, że kandydaci na mężczyzn są lepsi. Karane były CV, które zawierały słowo „kobiet”, jak w „kapitanie klubu szachowego kobiet”. Zdaniem osób znających tę sprawę obniżyła ocenę absolwentów dwóch kolegiów wszystkich kobiet. Nie podali nazw szkół.
Amazon dokonał edycji programów, aby były neutralne w stosunku do tych konkretnych warunków. Ale nie było to gwarancją, że maszyny nie wymyślą innych sposobów sortowania kandydatów, które mogłyby okazać się dyskryminujące, twierdzą ludzie.
Firma z Seattle ostatecznie rozwiązała zespół na początku ubiegłego roku, ponieważ dyrektorzy stracili nadzieję na projekt ...
... eksperyment firmy ... oferuje studium przypadku dotyczące ograniczeń uczenia maszynowego.
... informatycy, tacy jak Nihar Shah, który uczy uczenia maszynowego na Uniwersytecie Carnegie Mellon, twierdzą, że wciąż jest wiele do zrobienia.
„Jak upewnić się, że algorytm jest sprawiedliwy, jak upewnić się, że algorytm jest naprawdę możliwy do interpretacji i wyjaśnienia - to wciąż dość daleko” - powiedział.JĘZYK MASKULINII
[Amazon] założył zespół w centrum inżynieryjnym Amazon w Edynburgu, który urósł do kilkunastu osób. Ich celem było opracowanie sztucznej inteligencji, która mogłaby szybko indeksować sieć i wykrywać kandydatów wartych rekrutacji, powiedzieli ludzie znający sprawę.
Grupa stworzyła 500 modeli komputerów skoncentrowanych na konkretnych funkcjach i lokalizacjach. Nauczyli każdego rozpoznawać około 50 000 terminów, które pojawiły się w życiorysach poprzednich kandydatów. Algorytmy nauczyły się przywiązywać niewielką wagę do umiejętności, które były powszechne wśród aplikantów, takich jak umiejętność pisania różnych kodów komputerowych ...
Zamiast tego technologia faworyzowała kandydatów, którzy opisywali się, używając czasowników częściej spotykanych w życiorysach inżynierów, takich jak „stracono” i „schwytano”, powiedziała jedna osoba.
Powiedzmy, że chcę zbudować model statystyczny, aby przewidzieć wyniki na podstawie danych osobowych, na przykład ranking pięciu gwiazdek, aby pomóc w rekrutacji nowych osób. Powiedzmy, że chcę również uniknąć dyskryminacji ze względu na płeć, jako ograniczenia etycznego. Biorąc pod uwagę dwa ściśle równe profile oprócz płci, wyniki modelu powinny być takie same.
Czy powinienem wykorzystać płeć (lub jakiekolwiek powiązane z nią dane) jako dane wejściowe i spróbować skorygować ich efekt, czy też unikać używania tych danych?
Jak sprawdzić brak dyskryminacji ze względu na płeć?
Jak poprawić mój model pod kątem danych, które są statystycznie dyskryminujące, ale nie chcę tego robić z przyczyn etycznych?