Rynek

Europa naprawia internet. Czy to koniec dyktatu cyberkorporacji?

Margrethe Vestager mówi o Digital Services Act. Margrethe Vestager mówi o Digital Services Act. POOL/Reuters / Forum
Domyślnie wyłączone śledzenie na potrzeby reklam i większa kontrola nad algorytmami platform to dwie przełomowe propozycje Parlamentu Europejskiego, które mogą zmienić internet, jaki znamy.

Prace nad nową regulacją w Komisji Europejskiej – Digital Services Act – trwają już ponad rok. W dużym uproszczeniu: nowe przepisy mają za zadanie ukrócić wszechwładzę firm, których model biznesowy, trafnie określony przez harwardzką ekonomistkę Shoshanę Zuboff mianem „kapitalizmu inwigilacji”, jest oparty na ciągłym śledzeniu użytkowników. Pozyskane w ten sposób informacje są wykorzystywane do personalizowania reklam i rozwijania kolejnych usług oraz pozwalają maksymalizować spędzany przez użytkowników czas przed ekranem i ich zaangażowanie. Można im dzięki temu pokazać więcej reklam, na które z większym prawdopodobieństwem zareagują).

Cierpi na tym prywatność użytkowników, bo ich nieujawnione słabości wykorzystywane są dla zysku. Do tego gubi się jakość informacji (sensacja wygrywa z rzetelnością, bo lepiej się klika), a ponieważ to algorytmy zaprogramowane zgodnie z interesami biznesowymi platform kształtują dziś naszą cyfrową rzeczywistość, coraz bardziej kurczy się nasza sfera wolności do samodzielnego podejmowania decyzji.

Przywykliśmy do myśli, że taka jest cena za dostęp do „darmowych” usług, bez których trudno wyobrazić sobie dzisiaj codzienne funkcjonowanie. Jednak wcale tak nie musi być – ambicją unijnych instytucji jest pogodzenie rozwoju technologii z ochroną praw i wolności osób, które z niej korzystają. O te ostatnie walczą organizacje broniące praw cyfrowych – w tym Fundacja Panoptykon, która jest jednym z aktywniejszych podmiotów, które biorą od jesieni 2020 r. udział w procesie przygotowywania nowej regulacji.

Jakie rozwiązania wzmocnią pozycję użytkowników względem cyfrowych gigantów?

Domyślna ochrona przed śledzeniem

Dzisiaj wiedza platform internetowych o ich użytkownikach składa się z trzech warstw. Są to informacje podane przez nich samych (np. język, płeć, miejsce zamieszkania), informacje o ich aktywności w sieci (w co klikają, ile czasu spędzają w sieci, w jakich godzinach są najbardziej aktywni zakupowo) i wreszcie informacje wywnioskowane na ich temat przez same platformy (np. na podstawie zwiększonej aktywności na stronach związanych z macierzyństwem platforma może uznać, że dana użytkowniczka jest w ciąży lub ją planuje).

Wśród postulatów Panoptykonu i innych organizacji broniących praw użytkowników jest zakaz wykorzystywania wniosków wyciągniętych na podstawie zachowania użytkowników w sieci do celów reklamowych. Oznaczałoby to, że np. Facebook mógłby wykorzystywać informację o tym, że jego użytkowniczka jest w ciąży, tylko wtedy, gdyby ona sama go o tym poinformowała. To nie oznacza zakazu kierowania reklam do osób spodziewających się dzieci – zgodne z prawem byłoby np. umieszczanie takiej reklamy jako kontekstowej, czyli np. na blogach o macierzyństwie czy przy artykułach na ten temat.

Uprzedzając „efekt RODO” (irytujących pop-upów wyłudzających „zgodę” użytkowników na przetwarzanie danych na potrzeby serwowania przez nie targetowanej reklamy behawioralnej), aktywiści domagają się zakazu tego rodzaju manipulacyjnych praktyk w projektowaniu interfejsów. Nowa regulacja powinna też zakazywać zaszywania „zgód” na gromadzenie informacji w celach reklamowych w regulaminach, a same platformy – umożliwiać (skuteczne) przekazywanie preferencji dotyczących śledzenia przez niezależne narzędzia (wystarczyłoby nawet to, żeby respektowały sygnał „Do Not Track” wysyłany przez przeglądarkę).

Więcej kontroli dla użytkowników

Obrońcy praw cyfrowych domagają się też zawarcia w DSA efektywnych narzędzi kontroli nad danymi i treścią dla użytkowników. Nowa regulacja powinna zapewniać im dostęp do kategorii wykorzystywanych do personalizacji treści, jak również możliwość ich modyfikowania (także za pomocą np. przeglądarek). Dzięki temu użytkownicy nie byliby skazani na to, żeby to platformy decydowały o tym, jakich modyfikacji pozwolą im dokonać. Liczne badania potwierdzają, że już dziś dostępne narzędzia są niezbyt efektywne: prawdziwej kontroli nie daje ani opcja „dlaczego widzę tę reklamę”, którą można kliknąć na Facebooku (żeby dowiedzieć się, że „Reklamodawca chce dotrzeć do kobiet w wieku 18–65 lat”), ani możliwość edycji „zainteresowań” (dziennikarze „The Markup” udowodnili, że można wprawdzie usunąć jakąś kategorię zainteresowań, ale Facebook zaraz znajdzie sobie inną, za pomocą której osiągnie ten sam efekt. Inne wielkie platformy nie są pod tym względem wyjątkiem.

Zdaniem Panoptykonu platformy powinny też dopuścić możliwość korzystania z alternatywnych systemów zarządzania treścią, opartych na innych przesłankach i modelach biznesowych niż te reprezentowane przez GAFA (Google, Amazon, Facebook, Apple). Można wyobrazić sobie, że zewnętrzny algorytm zamiast podbijać treści najbardziej sensacyjne, nastawione na ściągnięcie kliknięć, które są podstawowym towarem w kapitalizmie inwigilacji, da priorytet tym bardziej wartościowym.

Takie rozwiązanie, technicznie oparte na wymogu zapewnienia interoperacyjności systemów platform, otwiera również drogę do rozwoju europejskich alternatyw dla gigantów z Doliny Krzemowej. W niedalekiej przyszłości moglibyśmy wyobrazić sobie zupełnie nowy rynek, na którym alternatywne systemy rekomendacji, rozwijane na przykład przez polskie startupy albo wydawców mediów internetowych, konkurowałyby o zaufanie użytkowników.

Przejrzystość i rozliczalność algorytmów

Organizacje domagają się wreszcie, by platformy były zobowiązane do przeprowadzania regularnej oceny ryzyka dla praw człowieka, jakie generują wykorzystywane przez nie algorytmy i zapobiegania temu ryzyku. Taka ocena powinna podlegać weryfikacji niezależnych organów, które w razie zidentyfikowania naruszeń miałyby prawo nałożyć karę, a nawet nakazać zmianę parametrów algorytmu, a także badaczy czy organizacji społecznych, których zadaniem byłoby identyfikowanie potencjalnych zagrożeń.

Aby było to możliwe, badacze i organizacje muszą mieć zapewniony dostęp do najważniejszych informacji o wykorzystywanych przez platformy algorytmach – np. wiedzieć, za jaki efekt odpowiadają, na jakich danych osobowych i innych kryteriach polegają, jakie potencjalne ryzyko wiąże się z ich wykorzystaniem. Podmioty sprawdzone przez niezależny organ powinny mieć też dostęp do danych, żeby móc „zajrzeć” do algorytmów i zweryfikować rzetelność oceny ryzyka i udokumentować potencjalne problemy. Do tej pory uzyskanie takiego dostępu zależało od dobrej woli platform. Zdarzało się więc, że jeśli tylko badacze dobierali się do problemów, które mogłyby zagrozić interesom biznesowym platform, te szybko im ten dostęp odbierały. Tak zrobił np. Facebook, który pozwał badaczy z amerykańskiego NYU, którzy próbowali lepiej zrozumieć to, jakie szkody może przynosić algorytm rekomendacji treści.

1313 stron poprawek

Wśród zainteresowanych kształtem Digital Services Act są nie tylko sami giganci internetowi spod znaku GAFA oraz obrońcy praw cyfrowych, ale też organizacje walczące z mową nienawiści w sieci, mniejsi dostawcy usług internetowych czy wydawcy prasowi. Wszystkie te podmioty mają za sobą pracowite miesiące, podczas których przygotowywały poprawki i przekonywały do nich europosłów i europosłanki z wiodącej komisji IMCO oraz komisji stowarzyszonych (LIBE i JURI). Wiemy już, że poprawek w samej IMCO jest ok. 2,2 tys. (mieszczą się na 1313 str.). Teraz przed sprawozdawczynią DSA Christel Schaldemose trudne zadanie wynegocjowania z pozostałymi członkami i członkiniami komisji kompromisu, który zadowoli wszystkich na tyle, żeby zdobyć większość niezbędną, by przejść przez głosowanie. Na negocjacje są prawie 4 miesiące – na 8 listopada zaplanowano głosowanie w komisji IMCO. Do końca roku projekt ma trafić pod głosowanie plenarne.

Wiele może też jeszcze wydarzyć się na forum Rady Unii Europejskiej, która – odwrotnie niż Parlament – zwykle dba bardziej o interesy gospodarcze niż o poprawę pozycji użytkowników. Po przyjęciu swoich stanowisk Parlament i Rada usiądą do negocjacji, z których wyłoni się ostateczny kształt regulacji platform. Chociaż na tym etapie ani w komisjach parlamentarnych, ani na forum Rady UE organizacje nie będą miały szansy na zgłaszanie nowych pomysłów, muszą trzymać rękę na pulsie, żeby w toku negocjacji ochrona konsumentów nie przepadła pod naciskiem wielkich platform.

Czy uda się osiągnąć rozwiązanie, które z jednej strony uszanuje prawa i wolności użytkowników, a z drugiej – nie zostanie zbojkotowane przez gigantów internetowych, którzy – nie bez kozery – obawiają się, że nadchodzące zmiany uszczuplą ich zyski? Przekonamy się zapewne już w przyszłym roku.

Więcej na ten temat
Reklama

Codzienny newsletter „Polityki”. Tylko ważne tematy

Na podany adres wysłaliśmy wiadomość potwierdzającą.
By dokończyć proces sprawdź swoją skrzynkę pocztową i kliknij zawarty w niej link.

Informacja o RODO

Polityka RODO

  • Informujemy, że administratorem danych osobowych jest Polityka Sp. z o.o. SKA z siedzibą w Warszawie 02-309, przy ul. Słupeckiej 6. Przetwarzamy Twoje dane w celu wysyłki newslettera (podstawa przetwarzania danych to konieczność przetwarzania danych w celu realizacji umowy).
  • Twoje dane będą przetwarzane do chwili ew. rezygnacji z otrzymywania newslettera, a po tym czasie mogą być przetwarzane przez okres przedawnienia ewentualnych roszczeń.
  • Podanie przez Ciebie danych jest dobrowolne, ale konieczne do tego, żeby zamówić nasz newsletter.
  • Masz prawo do żądania dostępu do swoich danych osobowych, ich sprostowania, usunięcia lub ograniczenia przetwarzania, a także prawo wniesienia sprzeciwu wobec przetwarzania, a także prawo do przenoszenia swoich danych oraz wniesienia skargi do organu nadzorczego.

Czytaj także

Historia

Droga sztuka – w co się teraz inwestuje

Aukcyjny rynek sztuki w Polsce w swojej 30-letniej historii przeżywał hossy i bessy, mody i nagłe zwroty. Ale mniej więcej od roku po prostu staje na głowie.

Piotr Sarzyński
22.07.2021
Reklama

Ta strona do poprawnego działania wymaga włączenia mechanizmu "ciasteczek" w przeglądarce.

Powrót na stronę główną