Osoby czytające wydania polityki

Wiarygodność w czasach niepewności

Wypróbuj za 11,90 zł!

Subskrybuj
Świat

Giganci technologiczni chcą walczyć z fejkami AI. Czy można im ufać?

Treści generowane przy pomocy sztucznej inteligencji są już w polityce używane powszechnie. Treści generowane przy pomocy sztucznej inteligencji są już w polityce używane powszechnie. Andre M. Chang / Zuma Press / Forum / Forum
Przy okazji monachijskiej konferencji bezpieczeństwa przedstawiciele ośmiu firm technologicznych podpisali porozumienie o zwalczaniu dezinformacji wspieranej przez sztuczną inteligencję. Są jednak mało konkretni.

Na początek obserwacja z rodzimego internetu. Dwa dni temu na Instagramie wyświetliło mi się zdjęcie lidera Konfederacji Sławomira Mentzena z rękami zgiętymi za plecami, trzymanego w uścisku przez dwóch mężczyzn. Podpis brzmiał zbyt sensacyjnie, żeby uznać rzecz za prawdziwą, ale sama grafika nie miała najmniejszych uchybień. Napis: „Mentzen nie wiedział, że kamera nadal go nagrywa. To koniec jego kariery”, skutecznie zniechęcił mnie do kliknięcia, bo wiem doskonale, że szefa skrajnej prawicy żadne służby w kajdankach nigdzie nie wyprowadzały. Ale graficznie wszystko się zgadzało: twarz bez deformacji, jeszcze niedawno typowych dla obrazów generowanych przez AI. Właściwe proporcje, detale, tło. Można się przyczepić do krawata z turkusowymi elementami, bo nie wyglądał jak integralna część jego stylu, ale poza tym wszystko się zgadzało.

Taka reklama nie powinna dziwić, skoro Polska jest u progu dwóch kampanii wyborczych. Treści generowane przy pomocy sztucznej inteligencji są już w polityce używane powszechnie. Na całym świecie. Przy okazji ubiegłorocznych wyborów parlamentarnych na Słowacji po sieci krążyły fejki o rzekomym podnoszeniu cen piwa i manipulowaniu elekcją przez opozycję. Przy okazji niedawnych prawyborów w New Hampshire niektórzy Amerykanie otrzymali tzw. robo-calls, połączenia wykonywane przez programy komputerowe. Głos w słuchawce nakłaniał do pozostania w domu i rezygnacji z głosowania, a należał do... Bidena, ale sam prezydent oczywiście do nikogo nie telefonował. Jak doniósł magazyn „Wired”, technologia użyta przy oszustwie najpewniej pochodziła od firmy ElevenLabs, święcącej ostatnio triumfy jako polski (bo założony przez Polaków) start-up o statusie „jednorożca” – jej wycena przekroczyła miliard dolarów. Przykłady można mnożyć. AI użyła w kampanii w zeszłym roku choćby Koalicja Obywatelska.

Fejki. Intencja dobra, porozumienie bezzębne

Od teraz ma być trudniej, przynajmniej według zapowiedzi technologicznych gigantów. Przedstawiciele ośmiu z nich, w tym Amazona, Google’a, IBM, Mety i OpenAI, przedstawili sektorowe porozumienie w sprawie fałszywych treści w internecie. Główną twarzą rozmowy o dokumencie był Nick Clegg, były wicepremier Wielkiej Brytanii, dziś szef działu polityki publicznej w Meta. Pod deklaracją widnieją podpisy 12 innych firm, w tym ElevenLabs. Sygnatariusze zapowiadają, że będą dzielić się „najlepszymi praktykami” w zakresie identyfikowania nieprawdziwych treści, również audio i wideo. Clegg podkreślał wielokrotnie, jakie to ważne w 2024 r., kiedy wybory na różnych szczeblach odbędą się w ponad 60 krajach na świecie, a do urn pójdzie łącznie ponad 3 mld osób. Problem w tym, że porozumienie jest właściwie bezzębne. Głównie dlatego, że nikt nie zobowiązał się do usuwania fałszywych treści z sieci.

Porozumienie opiera się na siedmiu zasadach: prewencji, identyfikacji pochodzenia, wykrywaniu, odpowiedzialnej ochronie, ocenie, świadomości publicznej i odporności. Meta, Google, IBM i inni chcą więc lepiej namierzać kłamliwe treści, skuteczniej dochodzić do tego, skąd się biorą, informować użytkowników o ryzykach i rozwijać narzędzia wspierające zdolności obronne opinii publicznej w tym zakresie. Tak naprawdę można tę korporacyjną nowomowę zredukować do deklaracji oznaczania fejków na bazie AI. Co użytkownicy z tym zrobią, to już ich wybór.

Czy można wierzyć gigantom technologicznym

Dlatego natychmiast po opublikowaniu dokument skrytykowało wielu ekspertów z organizacji pozarządowych i think tanków. Zarzucają mu „zbyt ogólne słownictwo”, „brak konkretów” i „przerzucanie odpowiedzialności” na inne podmioty. Pojawiają się głosy, że tak wielkim spółkom nie powinno pozwalać się na samoregulację, bo nie można im wierzyć. W końcu rozwijanie technologii opartej na sztucznej inteligencji to dla nich szansa na ogromne zyski, a każdy na tym polu stara się zdobyć teraz przewagę konkurencyjną.

Należy doceniać firmy z Doliny Krzemowej za samo uznanie za niebezpieczne technologii opartych na AI w kontekście politycznym i społecznym. Zwłaszcza że dotychczas jakiekolwiek regulacje z tym związane albo napotykały na olbrzymi opór korporacyjny, albo były tworzone przez instytucje przy współudziale tych podmiotów. W kwestii AI oprócz technologicznego wyścigu zbrojeń trwają działania lobbingowe, co było widać w Europie doskonale w ubiegłym roku. Szef OpenAI Sam Altman pielgrzymował po całym kontynencie, by przekonać ekspertów i polityków, że ma kontrolę nad rozwojem technologii jego firmy i że nie powinna być przedmiotem zbyt rygorystycznych regulacji.

Osobną kwestią jest pytanie o to, czy takie regulacje mogą w ogóle powstać. Zwrócił na to uwagę Nick Clegg, który podkreślił, że nie ma ani poparcia, ani możliwości wprowadzenia jednej regulacji dla wszystkich. „Każda firma słusznie posiada własny zestaw zasad dotyczących treści” – mówił, cytowany przez agencję Associated Press. Można to traktować jak ucieczkę do przodu i próbę ograniczenia wpływu regulatora na działania pojedynczych firm. Z drugiej strony, skoro nie ma przymusu chociażby dzielenia się technologią z innymi, można utrzymać przewagę nad rywalami. Po trzecie, pojawiają się głosy, że nie można skutecznie regulować AI jednym zestawem przepisów, bo niektóre firmy nie są w stanie do końca wyjaśnić, jak działają ich modele. To słaba wymówka, bo skoro ktoś zarabia na technologii, której w pełni nie rozumie, to może nie powinien jej dalej rozwijać, a nawet z niej korzystać.

Więcej na ten temat
Reklama

Warte przeczytania

Czytaj także

null
Społeczeństwo

Mamy wysyp dorosłych z diagnozami spektrum autyzmu. Co to mówi o nich i o świecie?

Przez ostatnich pięć lat diagnoz autyzmu w Polsce przybyło o 100 proc. Odczucie ulgi z czasem uruchamia się u niemal wszystkich, bo prawie u wszystkich diagnoza jest jak przełącznik z trybu chaosu na wyjaśnienie, porządek. A porządek w spektrum zazwyczaj się ceni.

Joanna Cieśla
23.04.2024
Reklama

Ta strona do poprawnego działania wymaga włączenia mechanizmu "ciasteczek" w przeglądarce.

Powrót na stronę główną