Obecnie nie potrzeba specjalisty od foresightu strategicznego, aby móc stwierdzić, że deepfakes mogą być i będą wykorzystywane na dużą skalę w wojnach propagandowych. Przyszłość deepfake’ów jest tuż za rogiem. Nie mówimy bowiem o czymś hipotetycznym, lecz o technologii na tyle dojrzałej, że już dziś nie są niezbędne specjalistyczna wiedza, ogromne budżety i czas, aby z niej korzystać – niemal każdy przy odrobinie samozaparcia może skorzystać z gotowych, dostępnych w internecie narzędzi do tworzenia deepfake’ów.

Zapewne rezultaty nie będą oszałamiające, ale postępy są widoczne niemal z miesiąca na miesiąc. A skoro nawet amatorskie deepfakes coraz częściej zadziwiają jakością, to łatwo sobie wyobrazić, co już teraz jest możliwe, gdy zabierają się za to profesjonaliści. O realności zagrożenia może świadczyć też to, że aktywnie rozwijane są narzędzia do detekcji deepfake’ów – pracują nad tym chociażby DARPA, Microsoft, Facebook czy MIT.

Co robią decydenci?

Amerykańska agencja rządowa DARPA, między innymi w związku z ingerencją Rosji w wybory prezydenckie w USA w 2016 roku, podejmuje dynamiczne działania, antycypując kolejne ataki. W kontekście wykrywania i walki z deep fake’ami wskazywana jest przez nią skuteczność metod statystycznych. Te jednak – w związku z dynamicznym rozwojem sposobów na tworzenie „fałszywek” – szybko okazują się ograniczone i niewystarczające. 

Niezwykle istotne wydaje się zatem prowadzone metodami cyfrowymi tropienie wpadek i niespójności popełnianych przy tworzeniu podrabianych obrazów – takich jak nieuzasadnione przeskoki w montażu obrazu, dublujące się rysy twarzy, brakujące detale. To wymagałoby jednak nauczenia maszyn „rozsądku” [common sense] i przeprowadzania analizy zgodnie z zasadami logiki – cech naturalnych dla ludzi, a póki co trudno osiągalnych dla sztucznej inteligencji. 

Na działaniach związanych z tworzeniem zbiorów danych, które można by wykorzystać w szeroko dostępnym oprogramowaniu służącym do automatycznego wykrywania „fałszywek”, koncentruje się grupa tworząca inicjatywę Deepfake Detection Challenge (DFDC). Do niej należą między innymi Facebook czy Microsoft oraz środowiska akademickie z MIT, Uniwersytetów w Oksfordzie czy Berkeley.

Z perspektywy bezpieczeństwa narodowego, które jest priorytetem instytucji takich jak wspomniana wyżej DARPA, kluczowe jest także flagowanie materiałów rozpoznanych jako fałszywe – tak by opinia publiczna otrzymywała jasne sygnały co do interpretacji konkretnych obrazów. W tym aspekcie firmy, w szczególności z branży społecznościowej, takie jak Facebook i Twitter, mają wiele do zrobienia.

Na tym polu działają również samozwańcze grupy ochotników, którzy przeszukują internet w poszukiwaniu deepfake’ów, by je demaskować. Jedni są generalistami, inni specjalizują się np. w deepfake’ach pornograficznych.

Jak samemu wykryć deepfake’a?

Jako specjalistę of foresightu strategicznego najbardziej interesują mnie nieoczekiwane scenariusze niż ekstrapolacja obecnych trendów w stronę tego, co najbardziej prawdopodobne. A to ostatnie w przypadku deepfakes jest stosunkowo proste i w gruncie rzeczy niezbyt ciekawe, bo to scenariusz jakościowo zbliżony do tego, co mamy obecnie. Ciągły wyścig zbrojeń pomiędzy twórcami deepfakes i twórcami narzędzi do ich detekcji oraz społeczeństwo do tego wyścigu zbrojeń przyzwyczajone, traktujące go jak codzienność – brzmi znajomo? Podobnie jest w teraźniejszości, w której przyzwyczajeni jesteśmy do korzystania z antywirusów, uważania na podejrzane linki w e-mailach itd. 

Wykrywanie deepfake'ów

Własnoręczne polowanie na deepfaki jest pasją wielu biegłych internautów.

Typowe sposoby obrony przed fałszywkami to z jednej strony próby skutecznego zabezpieczania oryginalnych treści przed modyfikacją przy pomocy różnego rodzaju wirtualnych certyfikatów autentyczności (pewne nadzieje wiązane są tu też z blockchainem). Z drugiej strony – zautomatyzowane identyfikowanie materiałów sfałszowanych. Sztuczna inteligencja może być wykorzystywana zarówno do identyfikacji deepfake’ów poprzez detekcję charakterystycznych niedoskonałości plików, jak i na poziomie semantycznym. 

Myśliwy i zwierzyna – kto jest górą w walce o przyszłość deepfake’ów

Taki detektor deepfake’ów – może instalowany jako oddzielny program, oferowany przez popularne platformy social media, może wbudowany w przeglądarkę, a może wtyczka do niej – mógłby nas informować o podejrzanych materiałach. Podobnie jak programy antywirusowe będzie zapewne niedoskonały (w takich wyścigach zbrojeń obrońcy są zazwyczaj o krok za atakującymi). Ważny będzie więc też zdrowy rozsądek – wyczulenie na pewne znaki ostrzegawcze. W takim scenariuszu, podobnie zresztą jak obecnie, wiele osób będzie podważało wiarygodność niekorzystnych dla nich zdjęć, filmów czy nagrań, twierdząc, że to zaawansowane fałszerstwa których nie potrafią zdemaskować algorytmy ani specjaliści. I często będą mieli rację!

Główny problem polega na tym, że nawet jeśli będziemy dysponowali względnie skutecznymi sposobami wykrywania tych fałszerstw, to i tak część osób uzna wyświetlające się im ostrzeżenia w rodzaju: „Ten materiał mógł być sfałszowany”, za dowód na to, że jakaś wpływowa grupa usiłuje zatrzeć prawdę o swojej działalności. Im bardziej zaawansowane będą deepfake’i, tym częściej też detektorom będą zdarzały się pomyłki, w tym fałszywe alarmy (tak jak dziś potrafią mylić się programy antywirusowe czy filtry spamu), co tylko utwierdzi część osób w tym, że ostrzeżeniom o deepfake’ach nie ma co wierzyć. A jak wiadomo, wystarczy czasem zasianie ziarna niepewności, aby zniszczyć czyjąś reputację albo by ktoś przegrał wybory. 

Spodziewajmy  się powtórek ze sprawy Dreyfusa

deepfake

Czy potwierdzenie wiadomości w kilku źródłach gwarantuje nadal jej prawdziwość?

Nie da się wykluczyć, że będą sytuacje, w których chwilową, ale istotną przewagę zyskiwać będą twórcy fałszywek. Tu dla mnie, z perspektywy zawodowej, robi się nieco ciekawiej, bo to sytuacja bardziej nietypowa. Nie muszą to być nawet „perfekcyjne” deepfake’i, zupełnie niewykrywalne dostępnymi metodami – wystarczy, że będą na tyle dobre, że ich zdemaskowanie nie odbędzie automatyczne, natychmiastowe. Kilka dni, albo i kilka godzin, przez które jakiś newralgiczny materiał będzie niesłusznie uznawany za autentyczny, może zmienić bieg historii.

Co jeśli deepfake’i staną się wizualnie nieodróżnialne od rzeczywistości, jeśli zautomatyzowane detektory przestaną sobie z nimi radzić? Nie da się tego wykluczyć i na pierwszy rzut oka brzmi to strasznie, bo jesteśmy przyzwyczajeni do wartości dowodowej, jaką mają nagrania obrazu i dźwięku. Czy deepfake’i mają szansę zrewolucjonizować dowodzenie w postępowaniach karnych? Być może, ale z drugiej strony, proszę pomyśleć, jak łatwo jest stworzyć nieodróżnialnego od rzeczywistości prymitywnego „deepfake’a pisanego” – najzwyczajniej w świecie napisać kłamstwo. 

Mówimy nawet, że papier jest cierpliwy i wszystko zniesie, wciąż też konsumujemy słowo pisane – w końcu czytają Państwo ten artykuł. Nikogo nie przeraża to, że w sytuacji „słowo przeciw słowu” szukamy dodatkowych dowodów na rację danej strony. Podobnie może stać się wkrótce z materiałami audiowizualnymi – będziemy potrzebowali dodatkowej weryfikacji, zanim uznamy coś za prawdę. Będziemy też starali się identyfikować wiarygodne źródła informacji, którym ufamy, że taką weryfikację profesjonalnie wykonują. A co jeśli jakiegoś nagrania nie uda się potwierdzić dodatkowymi dowodami? Cóż – wtedy trzeba będzie wzruszyć ramionami, bo nie będzie wiadomo, co w rzeczywistości się wydarzyło – „słowo przeciw słowu”. Ktoś powie: dodatkowe dowody przecież też można sfałszować. Owszem, ale tak samo jest obecnie. Co więcej, jest to kosztowne, trudne i ryzykowne, a same deepfake’i nie sprawią, że przestanie takim być. Świat perfekcyjnych deepfake’ów ma nawet pewien przewrotny urok – jak to powiedział znany myśliciel, Jack Sparrow:

„A dishonest man you can always trust to be dishonest. Honestly. It’s the honest ones you want to watch out for.

Cyfrowe fałszywki – raczej szansa niż zagrożenie?

Niezależnie od tego, który z powyższych scenariuszy się zrealizuje, w deepfake’ach szukałbym raczej szansy niż zagrożenia. Szansy na to, że staniemy się choć o drobinę bardziej nieufni w stosunku do informacji, które chcąc nie chcąc, konsumujemy w coraz większych ilościach – niestety, wciąż nazbyt bezkrytycznie. Kto wie, może nawet ktoś pójdzie po rozum do głowy i wprowadzi w szkołach naukę krytycznej analizy informacji – przeciwieństwo bycia nagradzanym za akceptację nieomylności podręcznika, co zna chyba każdy, kto chodził do szkoły. A przecież nie potrzeba perfekcyjnych deepfake’ów, aby głosić nieprawdę. Półprawdy i kłamstwa da się skutecznie rozpowszechniać także niezbyt wyrafinowanymi metodami – tak samo teraz, jak i w większości scenariuszy przyszłości, jakie mogą nastąpić.