Deepfakes – gorsze niż fake news

Wirtualna nierzeczywistość
Fake news? Stare dzieje. Ale będzie gorzej. Nowe zagrożenie to deepfakes, czyli zmanipulowane klipy. Dowód na to, że w sieci coraz trudniej odróżnić prawdę od fikcji.
Sfabrykowany klip z wmontowaną twarzą Natalie Portman.
materiały prasowe

Sfabrykowany klip z wmontowaną twarzą Natalie Portman.

Donald Trump wklejony w klip z „Powrotu do przyszłości”.
materiały prasowe

Donald Trump wklejony w klip z „Powrotu do przyszłości”.

Fani filmowego uniwersum Marvela i serii o bohaterach „Avengersów” mieli niedawno zagwozdkę: czy w wyczekiwanej „Czarnej Wdowie” naprawdę zobaczymy tak niepasującą do konwencji scenę seksu? Klipy z odtwórczynią głównej roli Scarlett Johansson, uprawiającą wyuzdany seks oralny, krążyły po sieci. Przypominały raczej amatorski film pornograficzny niż scenę wyciętą z tej wysokobudżetowej produkcji – i tak właśnie było. Tyle że materiał porno sfabrykowano, a twarz Johansson ktoś sobie pożyczył – z podanych na tacy zasobów internetowej przeglądarki – i bez zgody aktorki wykorzystał. Podobny los spotkał jej koleżanki po fachu: Emmę Watson, Daisy Ridley, gwiazdy „Gry o tron” Sophie Turner i Maisie Williams. Poza tym m.in. piosenkarkę Taylor Swift, a nawet – to już inna branża – Michelle Obamę.

Triki z mimiką

Wszystkie te znane kobiety padły ofiarami nowej wirtualnej sztuczki. Z pomocą sztucznej inteligencji i gotowych cyfrowych narzędzi, za to bez specjalnej wiedzy z zakresu montażu, każdy może spreparować takie deepfakes, czyli zmanipulowane materiały audiowizualne. Deepfakes to zbitka dwóch zjawisk: deep-learningu, czyli głębokiego, dokładnego uczenia się (mimiki, tików, barwy czy intonacji głosu itd.), którą to umiejętność posiadły nowe technologie, oraz fejków, czyli wirtualnych fałszywek. Razem – świeży i groźny trend w internecie.

Fałszywka nie musi być od razu filmem dla dorosłych, ale szerokie spektrum możliwości tym bardziej niepokoi. Zwłaszcza że amatorzy podrabiania mają ambicję, by efekty ich prac były realistyczne – i faktycznie takie są. Pomysł zrodził się w środowisku portalu Reddit, amerykańskiego odpowiednika polskiego Wykopu. W tym zbiorowisku osobliwości zawsze znajdzie się zapaleniec-hobbysta-informatyk amator z zamiarem wykorzystania internetowych narzędzi do zupełnie nowych, czasem niecnych celów. Użytkownik występujący pod pseudonimem deepfakes – który dał nazwę zjawisku – w segmencie zmanipulowanych klipów był pierwszy i szybko znalazł naśladowców.

Idea jest prosta, choć wymaga rzecz jasna nieco obeznania: twarze celebrytów trafiają do autentycznych filmów pornograficznych. Inteligentny algorytm z kategorii „Generative Adversarial Networks” (w skrócie GAN) robi potem wszystko sam: najpierw uczy się tzw. cech dystynktywnych, czyli mimiki, tembru głosu i innych indywidualnych właściwości człowieka, a potem synchronizuje je z materiałem tak, by nie zgrzytało, a efekt był możliwie wiarygodny. Z oryginalnego filmu pornograficznego znikają więc twarze aktorów porno, a w zamian pojawiają się dowolne inne. Dochodzi do podmianki, a właściwie do nałożenia jednej twarzy na drugą.

Pod koniec ubiegłego roku inny użytkownik – deepfaceapp – stworzył aplikację, która cały proceder jeszcze ułatwiła i przyspieszyła. Eksperci mówią wręcz o eksplozji w rozwoju nowych technologii, które dawniej wymagały lat pracy i wprawy, a teraz są w zasięgu byle amatora. Zjawisko z marginalnego stało się więc szybko powszechniejsze, a dzięki temu – szczęście w nieszczęściu – łatwiejsze do wychwycenia.

„Fałszywe porno wspierane sztuczną inteligencją już tu jest” – obwieścił jako pierwszy portal technologiczny Motherboard. Dodając: „And we’re all fucked”, wszyscy mamy przerąbane. Byłoby to lekkie określenie dla tego, co przytrafiło się znanej z „Gwiezdnych wojen” aktorce Gal Gadot, która w jednym z pierwszych tego typu klipów uprawia seks z przyrodnim bratem.

Treści przyszłości

Deepfakes wykorzystują narzędzia i algorytmy udostępniane w zbożnym celu przez gigantów pokroju Google. Miały służyć naukowcom i twórcom, a stały się zabawką w rękach zwykle anonimowych internautów. W ich pracach da się zauważyć niedoskonałości i potknięcia, ale niektórzy są już niebezpiecznie bliscy perfekcji. Zresztą nieudane detale umkną uwadze przeciętnego odbiorcy. „Wkrótce banalnie łatwo będzie wyprodukować wiarygodne filmy z ludźmi, którzy robią i mówią rzeczy, których nigdy nie robili i nie mówili. A nawet uprawiają seks, którego nie uprawiali” – grzmi Motherboard.

W podobnym tonie wypowiadał się na początku roku Edward Lucas, wiceprezes organizacji Centre for European Policy Analysis, stojąc przed brytyjskimi parlamentarzystami: „Wkraczamy w erę, gdy Rosjanie albo dowolni inni oponenci mogą tworzyć materiały i wypowiedzi haniebne i szkodliwe dla zaufania publicznego”. Na szali leży nie tylko reputacja znanych osób, ale też – jak w przypadku fake news – polityczne losy świata, mówiąc górnolotnie. Wkrótce w USA odbędą się wybory do Kongresu, a Polskę czeka rozpisany na lata cały wyborczy maraton. Internauci i hakerzy mogą sporo namieszać, a deepfakes to, jak się zdaje, idealne narzędzie do kompromitowania przeciwników. Eksperci martwią się nie bez powodu, że technologia zmienia świat, ale niekoniecznie na lepsze.

Czytaj także

Trendy, komentarze

W nowej POLITYCE

Zobacz pełny spis treści »

Poleć stronę

Zamknij
Facebook Twitter Google+ Wykop Poleć Skomentuj

Ta strona do poprawnego działania wymaga włączenia mechanizmu "ciasteczek" w przeglądarce.

Powrót na stronę główną