Świat

AI Act przegłosowany. Czy w Europie poradzimy sobie ze sztuczną inteligencją?

Parlament Europejski przegłosował AI Act 14 czerwca 2023 r. Parlament Europejski przegłosował AI Act 14 czerwca 2023 r. Jean-Francois Badias / Associated Press / East News
Można wyobrazić sobie scenariusz, w którym politycy i cyfrowe korporacje dobiją targu ponad naszymi głowami. Oczywiście kosztem obywateli i konsumentów, którzy nie mieliby prawa wiedzieć, że są obiektem działania systemów AI.

W zeszłym tygodniu uwaga światowej branży technologicznej skupiła się na Strasburgu, gdzie Parlament Europejski przyjmował projekt aktu o sztucznej inteligencji (AI Act). Unijne rozporządzenie to pierwsze na świecie prawo, które ma stworzyć zasady dla produktów i usług korzystających ze sztucznej inteligencji. AI to jeden z najszybciej rosnących sektorów nowych technologii, którego globalna wartość w 2022 r. szacowana była na co najmniej 100 mld dol.

Unijne regulacje wpłyną na wynik starcia o dominację nad rynkiem europejskim, o który walczą największe globalne korporacje. Jeszcze ważniejszy od biznesowego jest kontekst polityczny i społeczny. Od ostatecznego kształtu AI Act zależeć może to, czy uda się pozbawić rządy i wielkie cyfrowe platformy nieograniczonego dostępu do innowacyjnych narzędzi zdolnych do „inteligentnej” inwigilacji, dyskryminacji czy manipulacji.

Czytaj też: AI idzie do szkoły. Na maturze robi jeszcze błędy

Po co regulować sztuczną inteligencję?

Na początku prac nad regulacją tematem interesowały się głównie firmy technologiczne i prawnicy. Niektórzy przedstawiciele sektora cyfrowego krytykowali nawet sam pomysł tworzenia takiego prawa, argumentując, że „rynek ureguluje się sam” lub że „nie można wstrzymywać innowacji”. Ton dyskusji radykalnie zmienił się pod koniec zeszłego roku, kiedy do użytku trafił ChatGPT, a chwilę później kolejne aplikacje, takie jak Bard, Midjourney czy Stable Diffusion (oparte na tzw. dużych modelach językowych). Pozwalają one na szybkie tworzenie i analizę dowolnego tekstu, kodu, obrazu czy dźwięku. Stworzony przez badaczy OpenAI Chat GPT błyskawicznie stał się najszybciej pobieraną aplikacją w historii internetu. Od tego czasu setki milionów ludzi na całym świecie miało okazję osobiście sprawdzić, jak ogromny jest potencjał sztucznej inteligencji.

Równolegle do wiedzy o niesamowitych korzyściach – nie tylko w tworzeniu obrazków, ale przede wszystkim w medycynie, nauce czy automatyzacji procesów – rośnie świadomość skali ryzyka, z którym musimy się zmierzyć. Nie chodzi jednak o wielkie, egzystencjalne zagrożenia rodem z „Terminatora” czy „Odysei kosmicznej”, ale o praktyczne problemy na dziś. Jakie? Systemy AI, takie jak ChatGPT czy Bard, pozwalają na masowe tworzenie fałszywych treści do propagandy czy dezinformacji. Do tego potrafią w przemysłowej skali naruszać naszą prywatność (dane, na których GPT był „trenowany”, prawdopodobnie zbierano wbrew unijnemu rozporządzeniu RODO). Wyzwań jest więcej: od łamania praw autorskich, przez umożliwienie oszustw i fałszerstw oraz generowanie fake newsów, aż po zły wpływ na nasze zdrowie psychiczne czy zapisaną w algorytmach dyskryminację.

Jeszcze straszniejsza jest wizja, w której takie modele i systemy przeciw obywatelom wykorzystują rządy. Dzięki AI urzędy mogą w szybki i tani sposób łączyć ze sobą informacje z różnych źródeł, co wcześniej było bardzo drogie lub wręcz niemożliwe. W praktyce przekłada się to na obniżenie kosztów działania nie tylko administracji, ale także aparatu represji czy państwowej propagandy. Profilowanie, inwigilacja, dyskryminacja czy prześladowanie oponentów politycznych nigdy nie były tak proste i tanie. To kiepska wiadomość dla obywateli, ale wspaniała dla autorytarnych polityków na całym świecie. Atmosfera wokół AI zmieniła się na tyle, że do uregulowania tej technologii dziś wzywa polityków nawet Sam Altman, czyli szef OpenAI.

Czytaj też: Cyberdziewczyna za dolara. Pierwsze chatboty do walki z samotnością

Życie z ryzykiem. Firmy i obywatele

Aby powstrzymać takie czarne scenariusze, Komisja Europejska ponad dwa lata temu przedstawiła projekt AI Act, który po długich dyskusjach 14 czerwca przegłosowali europosłowie. Akt określa zasady, na których działać ma europejski rynek modeli i systemów AI. Inspirując się przepisami o bezpieczeństwie produktów, nowe prawo ma opierać się na zasadzie szacowania ryzyka. Gdy jest niewielkie (jak w przypadku większości produktów i usług opartych na AI), obowiązki firm i instytucji, które je rozwijają lub wprowadzają, mają być minimalne. W przypadku generatorów obrazów czy dyskusji z chatbotem firma czy instytucja, która go oferuje, będzie musiała poinformować nas o tym, że mamy do czynienia z programem.

Wyższe wymogi pojawią się, gdy AI będzie używane w administracji, sądownictwie, migracji czy policji. Takie systemy mogą być uznane za technologie wysokiego ryzyka, a podmioty, które je wprowadzają, będą musiały je zarejestrować oraz spełnić prawne i techniczne standardy. Wreszcie: niektóre zastosowania AI uznano za groźne na tyle, że mają zostać na unijnym rynku całkowicie zakazane. Tak ma być m.in. w przypadku programów, które manipulują ludzkimi decyzjami, oceniają nasze zachowania i przyznają „obywatelskie” punkty (social scoring), dyskryminują w oparciu o biometryczne dane o zdrowiu czy (tu sprawa wciąż nie jest przesądzona) inwigilują nas w czasie rzeczywistym na ulicach, dworcach lub w centrach handlowych. Firmy i instytucje, które złamią zasady, będą musiały liczyć się z zablokowaniem ich produktu, a także karami finansowymi. Najwyższe z nich mają wynieść 7 proc. globalnego rocznego obrotu, co może okazać się dotkliwe nawet dla takich gigantów jak Microsoft, Alphabet (Google) czy Meta (Facebook).

Wersja AI Act przyjęta przez Parlament Europejski mocno różni się od pierwszego projektu Komisji oraz tekstu zaakceptowanego jesienią zeszłego roku przez rządy państw UE. Najważniejsze zmiany dotyczą tego, że obywatelom i konsumentom przyznano konkretne prawa. Między innymi dzięki zaangażowaniu organizacji społecznych europosłowie wyposażyli Akt w przepisy zorientowane na bezpieczeństwo. Jeśli działanie AI naruszy nasze prawa, będziemy mogli złożyć skargę do urzędu i sądu, a przy systemach wysokiego ryzyka zażądać także szczegółowego wyjaśnienia decyzji, która nas dotknęła.

Do kategorii AI wysokiego ryzyka zaliczono także m.in. algorytmy rekomendujące treści na dużych platformach cyfrowych oraz niektóre systemy używane w kampaniach wyborczych czy administracji. Takie systemy mają być oceniane przed wypuszczeniem na rynek pod kątem ich wpływu na nasze prawa, zdrowie czy sytuację finansową. Na finiszu prac wprowadzono także nowe przepisy poświęcone modelom takim jak GPT („modelom fundacyjnym”), które aby móc działać w Europie, będą musiały przestrzegać naszego prawa m.in. w zakresie prywatności, antydyskryminacji czy ochrony praw autorskich. Z kolei do listy zakazanych zastosowań AI dodano m.in. „predyktywne” programy szacujące ryzyko popełnienia przestępstwa oraz systemy oparte na rozpoznawaniu emocji czy kategoryzacji obywateli ze względu na cechy wrażliwe.

Czytaj też: Scenarzyści z Hollywood się boją. AI pozbawi ich pracy?

Krytyka: o co te spory?

W ostatnich tygodniach przed głosowaniem największe emocje wzbudziła kwestia zakazu inwigilacji biometrycznej. To technologia, która pozwala na rozpoznawanie i śledzenie w czasie rzeczywistym w przestrzeni publicznej, w tym np. uczestników manifestacji, strajków czy marszy. Kiedy wydawało się, że takie systemy AI zostaną całkowicie zakazane, w ostatnim momencie posłowie Europejskiej Partii Ludowej (do której należą m.in. PO i PSL) zgłosili poprawkę, która pozwalałaby władzom na jej zastosowanie – i to nawet bez zgody sądu. Byłoby to szczególnie niebezpiecznie w krajach takich jak Polska, gdzie rozwiązania tworzone na potrzeby służb i policji potrafią (jak Pegasus) być używane niezgodnie z oryginalnym przeznaczeniem. Mimo że propozycja ostatecznie przepadła w głosowaniu plenarnym, niektóre rządy (m.in. francuski) nie zamierzają w tej sprawie składać broni.

Według organizacji społecznych w obecnej wersji Aktu wciąż brakuje ważnych przepisów. Po pierwsze, lista zakazanych praktyk nie obejmuje m.in. AI inwigilujących osoby przybywające do Europy z innych krajów. Po drugie, niektóre przepisy – np. prawo do wyjaśnienia decyzji AI – są zbyt wąskie, bo obejmują tylko systemy wysokiego ryzyka, a rozwój sztucznej inteligencji pokazuje, że będziemy mieli z nią do czynienia w każdej sferze naszego życia. Posłowie i posłanki nie zdecydowali się także przyznać organizacjom społecznym ani prawa do reprezentowania osób pokrzywdzonych, ani do „prewencyjnego” składania skarg na firmy i instytucje wykorzystujące ryzykowne AI, zanim ich działanie skrzywdzi konkretne osoby. Po trzecie, mechanizm uznawania konkretnego systemu za wysoce ryzykowny jest na tyle skomplikowany, że może okazać się dziurawy – tym bardziej że nie wszystkie takie programy będą musiały być rejestrowane w unijnej bazie.

Czytaj też: Komu zabierze pracę sztuczna inteligencja. To będzie przełom

Co dalej? Ryzykowny deal państw i koncernów?

Głosowanie 14 maja to nie koniec pracy nad nowym prawem. Właśnie wystartował ostatni etap – tzw. trilog, w którym Komisja Europejska, Parlament i Rada UE uzgadniają między sobą ostateczne brzmienie Aktu. Jego wynik może mieć fundamentalne znaczenie dla naszych praw. Jedną z kluczowych kwestii jest to, czy państwa będą musiały stosować się do AI Act w sytuacjach, gdy rząd stwierdzi zagrożenie „bezpieczeństwa narodowego”. Nie chodzi tu o kwestie militarne – Akt i tak nie będzie obowiązywał w wojskowości – ale o działalność służb specjalnych. Brak oficjalnej unijnej definicji „bezpieczeństwa narodowego” powoduje, że takie wyłączenie może być wygodną furtką pozwalającą na użycie groźnych narzędzi wobec własnych obywateli.

Ostatniego słowa nie powiedziały także wielkie, przeważnie pozaeuropejskie korporacje i firmy z sektora AI, dla których wizja nowego prawa będzie wiązać się z nowymi obowiązkami (a więc kosztami). Między innymi właśnie w celu „ocieplania relacji z rządami” w maju Polskę odwiedził szef OpenAI Sam Altman, który przed otwartą dla publiczności wizytą na Uniwersytecie Warszawskim spotkał się przy zamkniętych drzwiach z premierem Mateuszem Morawieckim.

Ważą się zarówno prawa obywateli, jak i interesy firm oraz rządów. Niestety, można wyobrazić sobie scenariusz, w którym politycy i cyfrowe korporacje dobiją targu ponad naszymi głowami. Taki deal opierałby się na prostej zasadzie: wielkie firmy uzyskają korzystne dla siebie regulacje (m.in. mniejsze obowiązki oraz koszty ewentualnych kar), z kolei politycy wywalczą sobie prawo do niestosowania Aktu w newralgicznych obszarach, takich jak działania policji, prokuratury czy służb w obszarze „bezpieczeństwa narodowego”. To pojęcie bez jednolitej definicji może być łatwo nadużywane do walki z osobami czy organizacjami uznanymi przez rząd za naruszające polską rację stanu.

Tego typu dogadanie się firm i rządu odbyłoby się oczywiście kosztem sytuacji maluczkich: obywateli i konsumentów, którzy nie mieliby prawa wiedzieć, że są obiektem działania systemów AI w ważnych dla siebie decyzjach. Szczególnie groźne mogą być konsekwencje dla mieszkańców krajów, które i bez AI zmagają się z naruszeniami praworządności, łamaniem praw obywatelskich czy rosnącym poziomem polaryzacji społecznej. Zamiast spekulować o hipotetycznej rewolucji robotów, osoby takie jak Sam Altman powinny zadeklarować, czy ich firmy zamierzają dostarczać technologie rządom, które wykorzystują AI do naruszania zasad demokratycznych czy praw człowieka.

Na szczęście w Unii sprawa nie jest stracona. Według optymistycznych prognoz ostateczną treść Aktu poznamy z końcem roku. O tym, czy regulacja w praktyce ochroni nasze prawa, dowiemy się jeszcze później: AI Act nie wejdzie w życie przed 2025 r. Jednocześnie musimy pamiętać, że nawet najlepsze regulacje nie działają w próżni i nie zrównoważą braku nakładów na edukację, inwestycje, wynagrodzenia czy fundusze dla innowatorów. Bez tych elementów marzenia o „europejskiej drodze do AI” na zawsze pozostaną w sferze fantazji.

Podkast: Jak przestać się martwić i pokochać sztuczną inteligencję

Więcej na ten temat
Reklama

Warte przeczytania

Czytaj także

null
Świat

Dlaczego Kamala Harris przegrała i czego Demokraci nie rozumieją. Pięć punktów

Bez przesady można stwierdzić, że kluczowy moment tej kampanii wydarzył się dwa lata temu, kiedy Joe Biden zdecydował się zawalczyć o reelekcję. Czy Kamala Harris w ogóle miała szansę wygrać z Donaldem Trumpem?

Mateusz Mazzini
07.11.2024
Reklama

Ta strona do poprawnego działania wymaga włączenia mechanizmu "ciasteczek" w przeglądarce.

Powrót na stronę główną