Ludzie i style

Wirtualna nierzeczywistość

Deepfakes – gorsze niż fake news

Sfabrykowany klip z wmontowaną twarzą Natalie Portman. Sfabrykowany klip z wmontowaną twarzą Natalie Portman. materiały prasowe
Fake news? Stare dzieje. Ale będzie gorzej. Nowe zagrożenie to deepfakes, czyli zmanipulowane klipy. Dowód na to, że w sieci coraz trudniej odróżnić prawdę od fikcji.
Donald Trump wklejony w klip z „Powrotu do przyszłości”.materiały prasowe Donald Trump wklejony w klip z „Powrotu do przyszłości”.

Fani filmowego uniwersum Marvela i serii o bohaterach „Avengersów” mieli niedawno zagwozdkę: czy w wyczekiwanej „Czarnej Wdowie” naprawdę zobaczymy tak niepasującą do konwencji scenę seksu? Klipy z odtwórczynią głównej roli Scarlett Johansson, uprawiającą wyuzdany seks oralny, krążyły po sieci. Przypominały raczej amatorski film pornograficzny niż scenę wyciętą z tej wysokobudżetowej produkcji – i tak właśnie było. Tyle że materiał porno sfabrykowano, a twarz Johansson ktoś sobie pożyczył – z podanych na tacy zasobów internetowej przeglądarki – i bez zgody aktorki wykorzystał. Podobny los spotkał jej koleżanki po fachu: Emmę Watson, Daisy Ridley, gwiazdy „Gry o tron” Sophie Turner i Maisie Williams. Poza tym m.in. piosenkarkę Taylor Swift, a nawet – to już inna branża – Michelle Obamę.

Triki z mimiką

Wszystkie te znane kobiety padły ofiarami nowej wirtualnej sztuczki. Z pomocą sztucznej inteligencji i gotowych cyfrowych narzędzi, za to bez specjalnej wiedzy z zakresu montażu, każdy może spreparować takie deepfakes, czyli zmanipulowane materiały audiowizualne. Deepfakes to zbitka dwóch zjawisk: deep-learningu, czyli głębokiego, dokładnego uczenia się (mimiki, tików, barwy czy intonacji głosu itd.), którą to umiejętność posiadły nowe technologie, oraz fejków, czyli wirtualnych fałszywek. Razem – świeży i groźny trend w internecie.

Fałszywka nie musi być od razu filmem dla dorosłych, ale szerokie spektrum możliwości tym bardziej niepokoi. Zwłaszcza że amatorzy podrabiania mają ambicję, by efekty ich prac były realistyczne – i faktycznie takie są. Pomysł zrodził się w środowisku portalu Reddit, amerykańskiego odpowiednika polskiego Wykopu. W tym zbiorowisku osobliwości zawsze znajdzie się zapaleniec-hobbysta-informatyk amator z zamiarem wykorzystania internetowych narzędzi do zupełnie nowych, czasem niecnych celów. Użytkownik występujący pod pseudonimem deepfakes – który dał nazwę zjawisku – w segmencie zmanipulowanych klipów był pierwszy i szybko znalazł naśladowców.

Idea jest prosta, choć wymaga rzecz jasna nieco obeznania: twarze celebrytów trafiają do autentycznych filmów pornograficznych. Inteligentny algorytm z kategorii „Generative Adversarial Networks” (w skrócie GAN) robi potem wszystko sam: najpierw uczy się tzw. cech dystynktywnych, czyli mimiki, tembru głosu i innych indywidualnych właściwości człowieka, a potem synchronizuje je z materiałem tak, by nie zgrzytało, a efekt był możliwie wiarygodny. Z oryginalnego filmu pornograficznego znikają więc twarze aktorów porno, a w zamian pojawiają się dowolne inne. Dochodzi do podmianki, a właściwie do nałożenia jednej twarzy na drugą.

Pod koniec ubiegłego roku inny użytkownik – deepfaceapp – stworzył aplikację, która cały proceder jeszcze ułatwiła i przyspieszyła. Eksperci mówią wręcz o eksplozji w rozwoju nowych technologii, które dawniej wymagały lat pracy i wprawy, a teraz są w zasięgu byle amatora. Zjawisko z marginalnego stało się więc szybko powszechniejsze, a dzięki temu – szczęście w nieszczęściu – łatwiejsze do wychwycenia.

„Fałszywe porno wspierane sztuczną inteligencją już tu jest” – obwieścił jako pierwszy portal technologiczny Motherboard. Dodając: „And we’re all fucked”, wszyscy mamy przerąbane. Byłoby to lekkie określenie dla tego, co przytrafiło się znanej z „Gwiezdnych wojen” aktorce Gal Gadot, która w jednym z pierwszych tego typu klipów uprawia seks z przyrodnim bratem.

Treści przyszłości

Deepfakes wykorzystują narzędzia i algorytmy udostępniane w zbożnym celu przez gigantów pokroju Google. Miały służyć naukowcom i twórcom, a stały się zabawką w rękach zwykle anonimowych internautów. W ich pracach da się zauważyć niedoskonałości i potknięcia, ale niektórzy są już niebezpiecznie bliscy perfekcji. Zresztą nieudane detale umkną uwadze przeciętnego odbiorcy. „Wkrótce banalnie łatwo będzie wyprodukować wiarygodne filmy z ludźmi, którzy robią i mówią rzeczy, których nigdy nie robili i nie mówili. A nawet uprawiają seks, którego nie uprawiali” – grzmi Motherboard.

W podobnym tonie wypowiadał się na początku roku Edward Lucas, wiceprezes organizacji Centre for European Policy Analysis, stojąc przed brytyjskimi parlamentarzystami: „Wkraczamy w erę, gdy Rosjanie albo dowolni inni oponenci mogą tworzyć materiały i wypowiedzi haniebne i szkodliwe dla zaufania publicznego”. Na szali leży nie tylko reputacja znanych osób, ale też – jak w przypadku fake news – polityczne losy świata, mówiąc górnolotnie. Wkrótce w USA odbędą się wybory do Kongresu, a Polskę czeka rozpisany na lata cały wyborczy maraton. Internauci i hakerzy mogą sporo namieszać, a deepfakes to, jak się zdaje, idealne narzędzie do kompromitowania przeciwników. Eksperci martwią się nie bez powodu, że technologia zmienia świat, ale niekoniecznie na lepsze.

Platformy społecznościowe służące za dystrybutory dla podobnych treści podjęły walkę i regularnie je kasują. Rękawice rzucili właściciele Twittera, dużego portalu Gfycat, a nawet największego na świecie serwisu pornograficznego Pornhub. Corey Price, wiceprezes tego ostatniego, zapewnił: „Przyjmujemy twarde stanowisko wobec pornografii zemsty, która w naszej ocenie jest odmianą napaści seksualnej”. Termin „pornografia zemsty” jest nieprzypadkowy – uważa się, że fałszywe filmy pornograficzne powstają w akcie nienawiści lub zawiści, z wykorzystaniem wizerunku bez zgody ich bohaterów. Bardziej po to, żeby upokorzyć, niż dla własnej przyjemności.

Pornhub zdaje się przy tym na swoich użytkowników, którzy flagują podobne materiały. Porządku na portalu Reddit też pilnują internauci. W dyskusji „Deepfakes banned, why?” (Deepfakes zostały zbanowane, dlaczego?), zamieszczonej właśnie na Reddicie, jeden z użytkowników uspokaja: „Nie ma co się martwić, deepfakes są kontentem przyszłości. Wrócą”. Twórca wspomnianej aplikacji do fałszywek w rozmowie z Motherboard już zapowiedział, że chciałby, aby dało się je preparować jeszcze prościej, za pomocą jednego kliknięcia, i żeby jeszcze wierniej kopiowały dane z twarzy czy głosu.

Sieci mroki i uroki

Deepfakes wcale zresztą nie zniknęły, ale zdaniem ekspertów przeniosły się do darkwebu, mrocznego fragmentu internetu z dostępem dla tych, którzy wiedzą, gdzie go szukać. Chociaż Joseph Cox w interesującym felietonie dla „Wired” stwierdza, że żaden darkweb nie istnieje, a siedlisko handlu narkotykami, bronią i pornografii dziecięcej zostało już dawno wyczyszczone. W ciemnej sieci – przekonuje Cox – zostali już tylko lekarze, którzy radzą, jak obchodzić się z narkotykami, albo Chińczycy, którzy wreszcie mogą swobodnie porozmawiać.

Jest w tym sporo racji, zwłaszcza że akurat deepfakes zalęgły się w łatwych do odszukania serwisach pornograficznych oferujących tylko fałszywki. To jak nowa kategoria porno, spełniająca – cóż z tego, że fałszywą – fantazję o podglądaniu intymnego życia gwiazd. Jak plakat z księżniczką Leią na ścianie, tylko w świecie cyfrowym, bardziej grzesznym.

O czasach wszędobylskich paparazzi i rozkwitu prasy brukowej celebryci, politycy i inne osoby publiczne mogą dziś więc myśleć z sentymentem. Współczesne formy upokarzania i manipulowania informacjami są, jak widać, dużo bardziej wyrafinowane i jeszcze trudniejsze do zwalczenia. Problem jest poważny, a na horyzoncie, tradycyjnie, sporo wątpliwości (od prawnych po etyczne) i żadnych w pełni skutecznych rozwiązań. Nie trzeba być celebrytą, żeby zacząć się bać. Bo wychodzi na to, że tak jak łatwo stać się wirtualnym Sebą, czyli bohaterem głupiutkiego mema, tak też łatwo mimowolnie zostać gwiazdą porno albo innej fikcyjnej produkcji. Zwłaszcza gdy udostępnia się w sieci setki selfie z różnych perspektyw.

Czy faktycznie jest tak łatwo, sprawdził publicysta „Guardiana” Alex Hern, samodzielnie testując aplikację FakeApp. Po wielu próbach Donalda Trumpa nie udało się zastąpić Borisem Johnsonem, bo lekko pomarańczowa cera prezydenta USA ciągle się gdzieś przebijała. Ale z Theresą May i Margaret Thatcher poszło mu już łatwiej. Da się tego nauczyć – twierdzi Hern. A w międzyczasie spece od AI przeskoczą takie ograniczenia jak odcień skóry.

Życie jak symulacja

Jak się bronić? Dobrze poznając przeciwnika. Czyli siebie. Antonio García Martínez pisze na łamach „Wired”: „Prawdziwymi politycznymi wrogami są dla nas nie Rosjanie, lecz nasza łatwowierność”. Łatwiej wziąć za prawdę coś, co wygląda i brzmi wiarygodnie, ale i to, z czym światopoglądowo się identyfikujemy. Niektórzy zapewne więc uwierzą, że Hillary Clinton przetrzymuje w piwnicy porwane przez siebie dzieci. Albo – szukając na własnym podwórku – że TVP wynajmuje ukraińskiego studenta, by agresywnie demonstrował przed Pałacem Prezydenckim. – Newsy mają dzisiaj potężną wartość budowania więzi społecznych. A to oznacza, że emocje i zaangażowanie biorą górę nad prawdą – twierdzi Alek Tarkowski, doktor socjologii, kierownik Centrum Cyfrowego Projekt: Polska.

Przeciętny internauta nadal bywa bezkrytyczny. Nie wyrobił w sobie jeszcze nawyku weryfikowania informacji, sprawdzania źródeł albo zestawiania ich z innymi. Z różnych przyczyn: z lenistwa, przez nadmiar bodźców i brak czasu. Franklin Foer w gorzkim eseju „The End of Reality” dla magazynu „The Atlantic” stwierdził niedawno, że tzw. świat rzeczywisty w ogóle się kończy, wszystko już da się zmanipulować: od obrazu po tekst. Nawet tacy geniusze jak Elon Musk – pisze Foer – uważają, że żyjemy w jakiejś symulacji komputerowej. Więc chyba nie jest dobrze i nie będzie lepiej. Zdaniem publicysty ostatnią deską ratunku byłby powrót autorytetów, przywrócenie rangi mediom, a wreszcie solidna edukacja. Krótko mówiąc: outsourcing problemu.

Nie wyeliminujemy problemu bez wielkich zmian w całym systemie mediów i newsów, których się nie spodziewam. Bo trzeba by rozmontować mechanizm napędzania kliknięć na potrzeby wyników reklamowych. Fake news świetnie się klikają! – zauważa Tarkowski. – Poza tym system mediów opartych na fact-checkingu zależy od tego, że istnieją fake newsy – jako negatywny punkt odniesienia.

Tymczasem Mandy Jenkins z firmy Storyful weryfikującej prawdziwość newsów twierdzi, że nabieramy się nawet na materiały niepoddane profesjonalnej obróbce dźwiękowej czy wizualnej. A powinniśmy – doradza – zwracać uwagę na detale, nawet na światło i cienie. Ruszyć głową. Na razie łatwiej nauczyć się spreparować prosty klip, niż odróżnić prawdę od kłamstwa. Co gorsza, łatwiej natknąć się na fałszywkę, niż zauważyć dementi.

Polityka 37.2018 (3177) z dnia 11.09.2018; Ludzie i style; s. 75
Oryginalny tytuł tekstu: "Wirtualna nierzeczywistość"
Więcej na ten temat
Reklama

Czytaj także

Ludzie i style

Jak amerykańskie flippery z Francji do Polski trafiły

Flippery, czyli zręcznościowe, elektromechaniczne maszyny do grania, były kiedyś obowiązkowym elementem wyposażenia w barach, hotelach i... nocnych klubach. O ich losach opowiada Marek Jasicki, który importował je z Francji do Polski.

Łukasz Dziatkiewicz
15.09.2019
Reklama

Ta strona do poprawnego działania wymaga włączenia mechanizmu "ciasteczek" w przeglądarce.

Powrót na stronę główną