Jakie są taktyki rozpoznawania sztucznie wytworzonych mediów?


12

Wraz z rosnącą zdolnością do taniego tworzenia fałszywych zdjęć, fałszywych zgryzów i fałszywych filmów staje się coraz większy problem z rozpoznaniem, co jest prawdziwe, a co nie. Nawet teraz widzimy wiele przykładów aplikacji, które tworzą fałszywe media za niewielką opłatą (patrz Deepfake , FaceApp itp.).

Oczywiście, jeśli te aplikacje są używane w niewłaściwy sposób, mogą one zostać wykorzystane do zepsucia wizerunku innej osoby. Deepfake może być użyty, aby osoba wyglądała na niewierną wobec swojego partnera. Można by użyć innej aplikacji, aby wyglądało na to, że polityk powiedział coś kontrowersyjnego.

Jakie są techniki rozpoznawania i ochrony przed sztucznie wytworzonymi mediami?

Odpowiedzi:


2

Pole Digital Media Forensics (DMF) ma na celu opracowanie technologii do automatycznej oceny integralności obrazu lub wideo, więc DMF jest polem, którego szukasz. W DMF istnieje kilka podejść: na przykład oparte na technikach uczenia maszynowego (ML), w szczególności na sieciach neuronowych zwojowych (CNN).

Na przykład w artykule Deepfake Video Detection using Recurrent Neural Networks (2018) David Güera i Edward J. Delp proponują dwustopniową analizę złożoną z CNN w celu wyodrębnienia elementów na poziomie klatki, a następnie tymczasowo świadomego RNN do przechwycenia czasowe niespójności między ramkami wprowadzone przez narzędzie głębokiego fałszowania. Mówiąc dokładniej, używają splotowej architektury LSTM (CNN w połączeniu z LSTM), która jest szkolona od początku do końca, dzięki czemu CNN uczy się funkcji na filmach przekazywanych do RNN, które próbują przewidzieć prawdopodobieństwo funkcji należących do fałszywego filmu lub nie. Część 3 wyjaśnia tworzenie fałszywych filmów, co prowadzi do niespójności między ramkami wideo (które są wykorzystywane w proponowanej metodzie) ze względu na wykorzystanie obrazów o różnych warunkach oglądania i oświetlenia.

Zaproponowano inne podobne prace. Zobacz tę wyselekcjonowaną listę https://github.com/aerophile/awesome-deepfakes, aby uzyskać więcej powiązanych dokumentów.


1

Myślę, że kontekst jest tutaj ważny. Prawdopodobnie najlepszym sposobem jest zastosowanie taktyki, jaką stosuje Scotland Yard od ponad wieku. Ustanawianie alibi, realistyczne linie czasu, motywy. W ustawie można byłoby udowodnić, że te obrazy są fałszywe przy użyciu takich metod. Z perspektywy IT może być możliwe wskazanie źródła tych obrazów. Jeśli tysiące podwójnych obrazów pochodzą z jednego źródła, wówczas podejrzane są wszelkie obrazy z tego źródła.

Myślę, że ogólnie powinniśmy się przekwalifikować, aby nie wierzyć we wszystko, co widzimy. Jest tak wiele metod fałszowania zdjęć, że fotografii nie można już uważać za najlepszy dowód na wydarzenie. Nie powinniśmy ignorować wszystkich obrazów, ale zamiast wyciągać wnioski, szukamy zewnętrznej zbieżności faktów. Jeśli wszystkie fakty wskazują na zdarzenie, to zdjęcie może być prawdziwe.


0

Zakładając, że artefakty i nienaturalne elementy nie istnieją w mediach, o których mowa, i że mediów nie można odróżnić od ludzkiego oka, jedynym sposobem, aby to zrobić, jest prześledzenie źródła zdjęć.

Analogię można wyciągnąć z ataku DoS (Denial of Service), w ramach którego absurdalna liczba żądań jest wysyłana z jednego adresu IP do jednego serwera, powodując awarię - powszechnym rozwiązaniem jest honeypot, w którym duża liczba żądań z jednego Adres IP jest przekierowywany na serwer wabika, gdzie nawet jeśli ulegnie awarii, czas pracy nie jest zagrożony. Przeprowadzono pewne badania na tych liniach, w których ten artykuł mówił o weryfikacji podpisu cyfrowego obrazu lub w tym, w którym zaproponowano sfałszowane wykrywanie obrazu i identyfikację kamery źródłowej.

Gdy absurdalna liczba potencjalnie fałszywych obrazów pochodzi z jednego źródła, należy je przesłuchać.

Powszechny strach pojawia się, gdy mamy do czynienia z czymś, na podstawie analogii, jak atak DDoS (Distributed Denial of Service), w którym każde fałszywe żądanie pochodzi z rozproszonego źródła - Network Security znalazł sposoby na poradzenie sobie z tym, ale bezpieczeństwo wykrywanie oszustw w zakresie sztucznej inteligencji po prostu nie jest ustalone.

Zasadniczo dla dobrze przemyślanych sztucznych nośników do określonego złośliwego celu, dziś trudno jest złapać - ale obecnie trwają prace nad bezpieczeństwem w AI. Jeśli planujesz używać sztucznych mediów do szkodliwych celów, powiedziałbym, że teraz jest najlepszy czas.

Od pewnego czasu obawy te budziły obawy. Artykuł napisany przez naukowców dane cytatów

Deepfakes były już wykorzystywane do nękania i poniżania kobiet za pomocą fałszywych filmów porno. Termin tak naprawdę pochodzi od nazwy użytkownika użytkownika Reddit, który tworzył te filmy, budując generatywne sieci przeciwników (GAN) za pomocą TensorFlow. Teraz urzędnicy wywiadu rozmawiają o możliwości wykorzystania przez Władimira Putina fałszywych filmów w celu wpłynięcia na wybory prezydenckie w 2020 roku. Prowadzone są dalsze badania nad połowami ryb jako zagrożeniem dla demokracji i bezpieczeństwa narodowego, a także sposobami ich wykrywania.

Uwaga - nie mam pojęcia o bezpieczeństwie sieci, cała moja wiedza pochodzi z jednej rozmowy z przyjacielem i pomyślałem, że byłoby to dobrą analogią do wykorzystania tutaj. Wybacz błędy w analogii i popraw je, jeśli to możliwe!


Byłoby miło, gdybyś mógł przeprowadzić badania i podać link do co najmniej 1 pracy badawczej / artykułu, który jest oparty na czymś podobnym (tj. Który wykorzystuje źródło potencjalnie fałszywych filmów).
nbro

Oprócz artykułów mówiących o potencjalnych szkodach i tych, które zwykle próbują wykryć artefakty, mniej artykułów robi to, co stwierdzono w odpowiedzi, takiej jak ta lub ta - Jak powiedziano, nie przeprowadzono szeroko zakrojonych badań na tych liniach, ale tak jest badane. Mam nadzieję, że te linki pomogły!
ashenoy

-1

Wspomniane techniki wykorzystują sieci GAN. Kluczową ideą GAN jest to, że masz generator i dyskryminator. Generator generuje nową treść, dyskryminujący musi stwierdzić, czy treść pochodzi z rzeczywistych danych, czy też została wygenerowana.

Dyskryminator jest znacznie potężniejszy. Wyszkolenie dyskryminatora w wykrywaniu podróbek nie powinno być zbyt trudne. Szkolenie modelu, który jest w stanie precyzyjnie określić manipulację, a zrozumienie tego jest trudniejsze. Nie można uzyskać dowodu, że coś nie jest zmanipulowane.

O pytanie, jak radzisz sobie z obrazami w Photoshopie: patrzysz na różnice w poziomach kompresji obrazu. Szukanym słowem kluczowym jest obrazowanie sądowe: http://fotoforensics.com/tutorial-estq.php

Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.