Systemy AI są dziś bardzo sprawnymi maszynami, a ostatnio obszar przetwarzania i odpowiedzi języka naturalnego eksplodował innowacjami, a także podstawową strukturą algorytmiczną maszyn AI.
Pytam, czy, biorąc pod uwagę te ostatnie przełomy, czy opracowano jakiekolwiek systemy AI, które są w stanie (najlepiej z pewnym stopniem sukcesu) świadomie okłamać ludzi na temat faktów, które zna?
Zauważ, że to, o co proszę, wykracza poza kanoniczne dyskusje z testu Turinga. Pytam o maszyny, które potrafią „zrozumieć” fakty, a następnie formułują kłamstwo przeciwko temu faktowi, być może wykorzystując inne fakty, aby stworzyć wiarygodne „zatuszowanie” jako część kłamstwa.
EG: Superkomputer CIA zostaje skradziony przez szpiegów, którzy próbują używać komputera do robienia różnych rzeczy, ale komputer ciągle mówi, że brakuje jego zależności, chociaż tak naprawdę nie jest lub świadomie udziela poprawnych, ale błędnych odpowiedzi. Lub podaje nieprawidłową lokalizację osoby, wiedząc, że dana osoba odwiedza jakieś miejsce, ale w tej chwili go nie ma. Oczywiście nie musi być tak wyrafinowane.