Pierwszy deepfake pojawił się pod koniec 2017 r. Opublikowany w serwisie Reddit przedstawiał twarz Gal Gadot „nałożoną” na aktorkę porno – wygląda na to, że Wonder Woman ma jeszcze więcej fantastycznych umiejętności. Potem pojawiły się kolejne nagrania tego typu, dla zabawy podmieniani są aktorzy w filmach – np. Schwarzenegger na Stallone’a w „Terminatorze”. Na tapet wzięto oczywiście również polityków. Obama, Trump i inni występowali w przemówieniach, które nigdy nie miały miejsca. Podobny los spotkał też Marka Zuckerberga – został użyty przez artystę do opowiedzenia, jak dużą wiedzę o każdym z nas ma Facebook i co może z nią zrobić – oraz Jona Snowa z „Gry o tron”, który przepraszał za ostatni sezon kultowego serialu.

Kamera plus sztuczna inteligencja

Według Wikipedii deepfake to technika obróbki obrazu polegająca na łączeniu twarzy ludzkich przy użyciu sztucznej inteligencji.

– Mówimy o przetwarzaniu obrazu i wideo za pomocą sieci neuronowych i metod uczenia maszynowego. Celem jest zmiana tego, co przedstawia oryginał. Jednym z pierwszych opublikowanych deepfake’ów był filmik, na którym na biegnącego konia przeniesiono paski zebry. Ale równie dobrze można podmienić twarz osoby albo zmienić to, co mówi. Na podstawie krótkiej próbki głosu da się tworzyć całe wypowiedzi. Legalnym zastosowaniem tej technologii jest np. program do edycji podcastów i wywiadów. Najpierw transkrybuje wypowiedzi do postaci tekstowej, którą redagujemy i według tych zmian materiał audio czy wideo sam się przemontuje. Sam, to znaczy za pomocą odpowiedniego modelu sztucznej inteligencji

– wyjaśnia Janusz Urbanowicz z instytutu Naukowa i Akademicka Sieć Komputerowa. Na granicy deepfake’a i analizy danych są też programy do poprawiania jakości zdjęć i wideo.

Krok w bok w takich przewidywaniach poszedł Jacek Dukaj. W opowiadaniu „Kto napisał Stanisława Lema” z 2015 r. przedstawia świat z algorytmami zdolnymi naśladować styl wielkich pisarzy. Zmieniając parametry wydarzeń z życia twórcy, można tworzyć różne wersje jego powieści. Stanisław Lew stał się tu funkcją falową. Kilka lat temu dużym echem na świecie odbiła się konferencja firmy Adobe. Zaprezentowano oprogramowanie, które po analizie 20 minut pliku audio było w stanie wstawić dowolne zdanie wypowiadane tym samym głosem w nagraną wypowiedź.

– Kiedyś można było się nabijać ze scen w serialu „CSI”, w których komputerowy magik poprawiał rozdzielczość rozpikselowanego zdjęcia funkcją „enhance” (ang. wzmocnij). Teraz odpowiednie oprogramowanie znaleźć można za darmo na GitHubie i uruchomić taką magię w domu

– dodaje Urbanowicz.

Dla nominowanego do Oscara polskiego reżysera i współproducenta netfliksowego „Wiedźmina” Tomasza Bagińskiego deepfake to tylko jedno z wielu narzędzi opowiadania historii.

– Dzięki tej technologii niektóre rodzaje ujęć będą trochę prostsze i tańsze, więc może pojawią się historie, które wcześniej z powodu skomplikowania, np. konieczności ożywienia dawno nieżyjącego aktora, nie trafiały do realizacji

– tłumaczy.

Aktor pośmiertny

Zmarłych aktorów widujemy w filmach już od kultowego „Kruka” z 1994 r. Podczas zdjęć tragicznie zginął syn Bruce’a Lee – Brandon. Kilka scen z jego udziałem powstało później z pomocą speców od grafiki komputerowej. Ale to dopiero postać komandora Tarkina w „Łotrze 1. Gwiezdne wojny” z 2016 r. zwróciła uwagę mas na możliwości Hollywood. Nic dziwnego, odgrywający go Peter Cushing zmarł 22 lata wcześniej – do ożywienia posłużyła technika motion / performance capture. W filmie widzimy też młodą księżniczkę Leię, czyli Carrie Fisher z makijażem CGI. Tak samo w ubiegłorocznym „Terminatorze. Mroczne przeznaczenie” pojawiają się Arnold Schwarzenegger i Linda Hamilton w wersji z lat 90., a nawet jej nastoletni filmowy syn, czyli 42-letni dziś Edward Furlong. W „Bliźniaku” jeden z Willów Smithów ma 23 lata, w oscarowej rozgrywce będzie liczył się „Irlandczyk” przedstawiający Ala Pacino, Roberta De Niro i Joe Pesciego dobre 40 lat młodszych. Lecz to jeszcze pikuś. W filmie o wojnie wietnamskiej „Finding Jack” wystąpi James Dean, który tragicznie zginął, nim się zaczęła!

Odmładzanie i ożywianie aktorów na rzecz kina jest kontrowersyjne, lecz artystyczny cel wydaje się słuszny. Więcej zastrzeżeń wzbudza reklama. W 2014 r. w spocie czekolady Dove wystąpiła Audrey Hepburn. Praca nad minutą filmiku zajęła rok, technologię określono jako FACS (facial action coding system) – aktorka dublerka nagrała ponad 70 ruchów mimicznych, na które komputerowo nałożono twarz Audrey. Odbiór społeczny był mieszany. „Nie wydaje mi się, że zmarli powinni cokolwiek reklamować” – takie komentarze zebrały sporo polubień. W obu ostatnich przypadkach zgody na występy, oczywiście nie bezpłatnej, udzieliły rodziny.

Taki bieg wydarzeń przewidziała fantastyka naukowa. W 2013 r. na duże ekrany wszedł „Kongres” oparty na motywach powieści Stanisława Lema. Jednym z wątków futurystycznego filmu jest zmiana w przemyśle kinowym – aktorzy za opłatą poddają się zeskanowaniu studiom filmowym, by powstały ich bardzo dokładne modele. Dzięki temu nie muszą już nigdy występować – robią to za nich cyfrowe klony, komputerowe symulacje. Taką technikę stosuje się już powszechnie w grach wideo. Za przykład może tu posłużyć np. głośne dzieło legendarnego Hideo Kojimy na PlayStation 4 – „Death Stranding”, w którym widzimy Madsa Mikelsena.

Póki co deepfake pozwala zamienić jedynie twarz aktora, ale być może za kilka lat możliwa będzie całkowita podmiana. Co by było, gdyby Marilyn Monroe była mężczyzną? Jakby wyglądały „Psy 2” z Karolakiem w roli głównej?

Wkrótce dla każdego

– Tak jak łatwość miksowania muzyki stworzyła didżejów, tak samo łatwość mieszania obrazów ruchomych stworzy nowe dziedziny sztuk wizualnych. Albo nie tyle koncepcyjnie nowe, bo to się już dzieje od lat, ile zdemokratyzowane. Te narzędzia staną się dostępne dla wielu ludzi

– przewiduje Bagiński.

– W tej chwili do tworzenia deepfake’a potrzebne są trzy elementy: specjalista od sztucznej inteligencji i uczenia maszynowego, duża moc obliczeniowa i dane, które posłużą do zbudowania modelu

– tłumaczy Urbanowicz.

To znaczy np., że program do fałszowania wypowiedzi musimy wytrenować na dużym zbiorze tysięcy próbek. To samo tyczy się oczywiście wideo, z tym że tutaj danych i mocy obliczeniowej potrzeba jeszcze więcej. Ludzie od sztucznej inteligencji są teraz najbardziej poszukiwanymi na rynku pracy specjalistami, tworzenie takich modeli bardzo się rozwija i jest trudne. Ale prędzej czy później pojawią się gotowe narzędzia i będzie można ingerować w treści jednym kliknięciem myszy.

Wystarczy spojrzeć na drogę, jaką przebyła fotografia. „Fotokompozycje” – jak je sam nazywał – były dla polskiego fotografa wizjonera Ryszarda Horowitza w latach 90. trudnym projektem, na ich potrzeby powstał specjalny program komputerowy. Teraz cyfrowe kolaże to dla nastolatka z laptopem (a nawet tylko z telefonem) kwestia kilku chwil.

Z zemsty i z przekonania

Deepfake przesuwa granicę fałszu daleko, przedstawiając wizualnie sytuacje, które nigdy nie miały miejsca, jako prawdziwe. Deepfake’ów powstaje coraz więcej i w różnym celu. Aktorzy, politycy i celebryci to oczywiste cele przerobionych filmów. Ale czy nam, szaraczkom, coś grozi?

Eksperci malują ponury obraz. – Wyobraź sobie sytuację, w której terroryści tworzą dziesięć różnych filmików z Trumpem. W każdym z nich prezydent wygłasza sprzeczne oświadczenie. Publikują je jednocześnie w różnych obszarach internetu. Wypowiedzi mogą być dowolne: o rozpoczęciu wojny jądrowej z Iranem, o aneksji Chin, o ataku na Rosję czy o rozwiązaniu NATO. Po jednej takiej akcji świat pogrążyłby się w chaosie na długie tygodnie, jeśli nie miesiące albo lata – mówi Urbanowicz. Niemożliwe? Nawet Olga Tokarczuk w mowie noblowskiej zwróciła uwagę, że kategoria fake newsów stawia nowe pytania o to, czym jest fikcja.

– Sieć może zalać fala filmów, co do których nie będziemy mieli pewności, czy są prawdziwe, czy nie – wieszczy dr Kamil Mamak, prawnik i filozof, pracownik Katedry Prawa Karnego Uniwersytetu Jagiellońskiego. Według eksperta tego typu filmy mają potencjał wywoływania tragedii na wielu różnych poziomach – od jednostkowych, np. wideo ze zdradzającym partnerem, po ustrojowe – deepfake z politykiem tuż przed wyborami może zmienić losy kraju.

– Tej technologii używają cyberprzestępcy do tworzenia zdjęć profilowych fałszywych kont w mediach społecznościowych. Do tej pory wykorzystywane były fotografie skradzione z innych profili albo z baz zdjęciowych. Sprawdzenie, czy zdjęcie nie jest „pożyczone”, było ważną metodą weryfikacji autentyczności konta. Teraz jednym kliknięciem można stworzyć realistyczne zdjęcia nieistniejących osób, które zaraz podejmą w sieci trollerską robotę

– ostrzega Urbanowicz. Żeby nie szukać daleko, wystarczy wejść na stronę thispersondoesnotexist.com. Każde jej przeładowanie generuje zdjęcie osoby, która – zgodnie z nazwą witryny – nie istnieje.

Rozpoznanie coraz trudniejsze

Jak rozpoznać deepfake? Póki co filmy te są dość jasno oznaczone i traktowane raczej jako ciekawostka, pokaz kreatywności połączonej z technologiczną wiedzą.

– Na razie mają w sobie coś ze sztuczności. Jednak technologia ciągle się rozwija i na pewno nastąpi znaczna poprawa. Myślę, że przeciętny użytkownik sieci wkrótce będzie miał problemy z wykryciem deepfake’a, tak jak obecnie w przypadku zdjęć

– dodaje Mamak.

W podobnym tonie wypowiada się Urbanowicz. Zdaniem eksperta prędzej czy później pojawią się gotowe narzędzia do tworzenia deepfake’ów i nie trzeba będzie od zera trenować odpowiedniego modelu. Pojawią się (już się pojawiają) odpowiednie koprocesory do przyspieszania obliczeń wykorzystywanych w modelach sztucznej inteligencji. Możliwość tworzenia deepfake’ów trafi pod strzechy.

– W internecie mówi się: „Pics or it didn’t happen” – jeśli nie ma zdjęć, to ściema. Ale dziś historycznie jesteśmy dokładnie w tym momencie, w którym i zdjęcia, i nawet filmy przestają być wiarygodnym dowodem na cokolwiek

– wyjaśnia Urbanowicz.

Oczywiście metody wykrywania także się rozwijają – lecz zawsze będą tylko gonić za nowymi sposobami tworzenia fałszywych treści.

Co na to prawo?

Prawodawstwo zostaje zwykle w tyle za technologią. Czy tak samo jest w przypadku deepfake’ów? – Po części już teraz ich robienie jest zakazane przez polskie prawo – tłumaczy Mamak. Jeżeli stworzony materiał ma kogoś w opinii publicznej poniżyć, jest to przestępstwo zniesławienia, za które można iść nawet do więzienia, jeżeli materiał byłby dostępny powszechnie w internecie. Dotyczy to także filmów porno, w których twarz aktorki zastąpiona jest twarzą ofiary fałszerstwa. Jednak polskie prawo nie jest gotowe na wszystkie wyzwania tego typu. – Szczególnie szkodliwe mogą być nagrania, które pojawiają się w okresie wyborów. Już teraz należałoby się prawnie zabezpieczyć przed ich negatywnym wpływem. Ustawodawca powinien przygotować przepisy w tym zakresie – puentuje Mamak.

Pod koniec 2018 r. republikański senator Ben Sasse przygotował ustawę znaną jako „Malicious Deep Fake Prohibition Act of 2018”, która ma na celu zakazanie „wprowadzającego w błąd preparowania nagrań audiowizualnych” pod karą nawet 10 lat więzienia. Na razie nieprzyjętą. Inna nieprzyjęta ustawa – „Deepfakes Accountability Act” – zaproponowana w czerwcu przez reprezentantkę Demokratów Yvette Clarke (problem, jak widać, jest ponad podziałami) wymaga, aby fałszowane nagrania były wyraźnie oznaczone znakiem wodnym. A dla przestępców pięć lat odsiadki. Próby zatrzymania deepfake’ów podejmuje się także w innych krajach, np. w Chinach.

Sieci społecznościowe również zapowiedziały walkę. Chociaż oczywiście łatwiej powiedzieć, niż zrobić. Facebook zaprzągł do współpracy ośrodki akademickie. Nadal jednak przyznaje, że odnalezienie i zidentyfikowanie deepfake’ów wśród milionów nadesłanych wideo stanowi nie lada wyzwanie. A skoro jedna z najpotężniejszych platform z ogromnymi zasobami ma z tym problemy, to co mają powiedzieć te mniejsze.

Do tego, że fałszuje się wideo, od dawna przygotowuje nas Hollywood. To, do czego nie jesteśmy przygotowani, to że za jakiś czas podrobione nagrania będzie mógł produkować każdy.