Do niedawna wyglądało na to, że faworytem w walce o prawne „spętanie” zagrożeń, które wywołuje sztuczna inteligencja, jest Europa. Gdy wydawało się, że negocjacje unijnego Aktu o AI dobiegają końca, do gry weszły USA i Chiny. Jakby tego było mało, nad wprowadzeniem międzynarodowych reguł pracują obecnie również ONZ, OECD, Rada Europy i Wielka Brytania. Inicjatyw jest tak dużo, że można się w nich pogubić. Mimo regulacyjnego i PR-owego szumu jedno wydaje się pewne: o przyszłości technologii cyfrowych zdecydują nie tylko inspirujący innowatorzy, ale również politycy, urzędnicy, prawnicy czy audytorzy.
Efekt Brukseli
Jeszcze kilka lat temu normy i standardy techniczne dla programów i urządzeń określanych zbiorczo jako sztuczna inteligencja interesowały wąską grupę pasjonatów prawa nowych technologii. Przodujący w AI innowatorzy i badacze znacznie chętniej rozprawiali o „etyce maszyn”, „apokalipsie robotów”, „końcu pracy” i innych dalekosiężnych wizjach znanych z książek i filmów science fiction.
Sytuację zmieniła Komisja Europejska, która w 2021 r. złożyła projekt Aktu o AI. Unijny projekt adresuje problem z perspektywy bezpieczeństwa produktów i zasadza się na modelu opartym na ryzyku. Od tego czasu coraz częściej zamiast o etyce czy kodeksach „dobrych praktyk” mówi się o prawie i obowiązkach. Unia liczy tu na wywołanie „efektu Brukseli” – tego, aby europejskie zasady były stosowane przez firmy także poza jej terytorium.
Poza wprowadzeniem katalogu zakazanych zastosowań (takich jak np. system „punktowania” obywateli) Akt ma nałożyć na twórców oraz firmy i instytucje, które wprowadzają systemy AI do użytku, adekwatne do zagrożeń wymogi, które będą zgodne z „europejskimi wartościami”.