Wulgaryzmy albo kłamstwa w ustach prezydenta czy twarz przypadkowej kobiety podpięta do ciała aktorki filmów porno – to przykłady deep fakes – zmanipulowanych filmów wideo, w których podkłada się czyjś wizerunek pod zupełnie inną postać na nagraniu. O tym, jak to się robi i do czego może służyć, opowiada dr Helena Chmielewska-Szlajfer, socjolożka pracująca w Katedrze Zarządzania w Społeczeństwie Sieciowym Akademii Leona Koźmińskiego.
Nauka w Polsce: Czy dożyliśmy czasów, w których nie możemy wierzyć własnym oczom?
Helena Chmielewska-Szlajfer: Zdecydowanie tak, ale nie jest to nowa rzecz. Manipulacje nie narodziły się wczoraj, jednak obecne technologie jeszcze bardziej utrudniają wiarę w to, co widzimy.
Deep fakes to najnowsza emanacja oszustw, które mają kłamać w żywe oczy. Rzeczywiście, w sposób najbardziej bezpośredni podważa ona wiarygodność nagrań wideo i audio.
NwP: Na czym to polega?
H. Ch.-Sz.: Deep fakes to manipulacja obrazem i dźwiękiem. Najczęściej widać je w krótkich filmach, gdzie podmienia się ciała i twarze, tak zwany „face swap”.
NwP: Skąd nazwa „deep fakes”?
H. Ch.-Sz.: Termin wziął się od pseudonimu użytkownika forum internetowego Reddit, który pod tym pseudonimem jako jeden z pierwszych udostępniał tak zmanipulowane obrazy i oprogramowanie pozwalające w prosty sposób tworzyć podobne materiały.
NwP: Do czego ludzie najczęściej to wykorzystują?
H. Ch.-Sz.: W przeważającej większości, bo aż w 96 proc., dotyczy to materiałów pornograficznych. W tym przypadku prawie wyłącznie manipulowane są ciała i twarze kobiet.
NwP: Ale zagrożeń jest zapewne więcej?
H. Ch.-Sz.: Oczywiście. W tej chwili główny lęk związany z deep fakes koncentruje się na manipulacjach związanych z polityką. Dotyczy to na przykład wyborów w USA, ale nie tylko. W 2018 roku w Belgii powstał film, na którym Donald Trump „mówił”, że wycofał się z paryskiego porozumienia klimatycznego, co miało skłonić Belgów, aby postąpili w podobny sposób. Strach przed deep fakes można też wykorzystać w drugą stronę.
W Malezji minister ds. gospodarki został oskarżony o homoseksualizm – karany w tym państwie – na podstawie filmu pokazującego go w intymnej sytuacji. Jednak on sam argumentował, że kompromitujące dla niego nagranie to manipulacja.
NwP: Pomieszanie zatacza więc coraz szersze kręgi…
H. Ch.-Sz.: Podobnie rzecz się ma od dłuższego czasu z „fake news”, czyli fałszywymi informacjami prasowymi. Dziś często informacja, która się po prostu komuś nie podoba, jest określana przez taką osobę mianem „fake newsa”.
NwP: Wygląda to dosyć niebezpiecznie.
H. Ch.-Sz.: Deep fakes stają się coraz trudniejsze do zdemaskowania, stąd więc ogromny strach przed nimi. W tym momencie mamy do czynienia z wyścigiem między twórcami technologii do tworzenia deep fakes a tymi, którzy tworzą mechanizmy do ich demaskowania. Wszystko to podważa nasze zaufanie do tego, co widzimy, zwłaszcza do informacji, które otrzymujemy w internecie.
NwP: Czy do tworzenia dobrze zrobionych deep fakes trzeba mieć duże umiejętności i specjalistyczne programy?
H. Ch.-Sz.: Istnieją zaawansowane metody wymagające dużych kompetencji, ale prostsze manipulacje można zrobić, używając podstawowych smartfonowych aplikacji. Warto pamiętać o tym, że potencjalnie groźne manipulacje można tworzyć z pomocą prostych, starych technologii. Tak było w przypadku Nancy Pelosi.
Na specjalnie spowolnionym nagraniu spikerka Izby Reprezentantów mówiła w sposób, który sprawiał wrażenie, jakby była pijana. Inny przykład dotyczy dziennikarza CNN Jima Acosty, którego nagranie zostało z kolei celowo przyspieszone. W efekcie wyglądało to tak, jakby dziennikarz wyrywał mikrofon pracownikowi Białego Domu w trakcie briefingu z prezydentem Trumpem.
NwP: Czy nie da się tego jakoś ograniczyć prawem?
H. Ch.-Sz.: To powoli już się dzieje. W Australii twarz młodej kobiety połączono z ciałem aktorki z filmów pornograficznych. Poszkodowana nie tylko wygrała sprawę w sądzie, ale dzięki niej wprowadzono nową kategorię przestępstw związanych z nadużyciem w oparciu o czyjś wizerunek. Kluczowa jest tutaj kwestia zgody oraz intencji. W opisanym przypadku nie ma wątpliwości, że były one złe, ale tworzący deep fakes często powołują się na prawo do tworzenia satyry.
Na pewno są też korzyści z takich technologii. To potężne narzędzie dla twórców filmowych, a także amatorów, którzy np. będą mogli wcielić się w superbohatera.
Jednocześnie deep fakes to skutek uboczny pracy specjalistów od efektów specjalnych. Filmy tego rodzaju, nie muszą być szkodliwe, mogą być po prostu zabawne. Powstają specjalne kanały z humorystycznymi nagraniami tego typu.
NwP: Czy uda nam się w tym wszystkim połapać?
H. Ch.-Sz.: Coraz trudniej będzie nam wierzyć własnym oczom i uszom. Może jednak dzięki temu przestaniemy się tak strasznie lenić i zaczniemy uważniej weryfikować informacje.
Rozmawiał Marek Matacz, PAP – Nauka w Polsce, mat/ agt/
Dodaj komentarz
Musisz się zalogować, aby móc dodać komentarz.