Zakaz social mediów: jak miałby działać w Polsce? „Trzeba wreszcie zwolnić skorumpowanego bramkarza”
Według badań More in Common Polska 89 proc. rodziców boi się o swoje dzieci w sieci. Nic dziwnego. W mediach nie brakuje dramatycznych historii dzieci i nastolatków wciągniętych przez platformy (anty)społecznościowe w króliczą norę treści o samookaleczeniach, wystawionych na kontakt z pornografią czy internetowy hejt. Doniesienia z sal sądowych dostarczają przykładów, których nie sposób zignorować.
25 marca 2026 r. ława przysięgłych w Kalifornii uznała Metę i Google za winne celowego projektowania usług w taki sposób, żeby wyzyskiwać słabości (w tym podatność na uzależnienie) dzieci i nastolatków. Zaledwie dzień wcześniej sąd w Nowym Meksyku uznał, że Meta celowo ignorowała fakt, że jej usługi pozwalają na grooming, czyli uwodzenie dzieci przez osoby dorosłe.
W tym samym badaniu More in Common rodzice przyznają się do bezradności: aż 87 proc. deklaruje, że w tym starciu oczekuje wsparcia ze strony instytucji publicznych. Powody mogą być różne. Ci najbardziej świadomi mają poczucie walki z wiatrakami. Bo choć w domu dzieci mogą korzystać ze smartfonu tylko w określonych celach i najczęściej w asyście, wystarczy, że przekroczą próg mieszkania, by na osiedlowym lub szkolnym podwórku raczyć się filmikami z krwawymi wypadkami, tiktokową pornografią czy hitami w stylu „Pij Wojanka”.
Inni kupili siedmiolatkowi smartfon, bo „wszyscy w klasie mają”, ale czują, że nie nadążają za swoim dzieckiem i nie są w stanie skutecznie kontrolować takiego urządzenia. Jeszcze inni widzą, że z ich dzieckiem dzieje się coś niedobrego i łączą to z niezdrowym sposobem korzystania z mediów elektronicznych.
Czytaj także: Smartfony w szkole: zakazywać? Pytamy uczniów, co oni na to. Pojawiły się ciekawsze pomysły
Internet jak miasto
Internet bywa porównywany do używek, które są dostępne tylko dla dorosłych. Naszym zdaniem trafniejsze byłoby porównanie do miasta – swoboda i samodzielność poruszania się po nim rosną wraz z wiekiem.
Trzy- czy pięciolatki nie chodzą po mieście same. Nie powinny też samodzielnie korzystać z internetu. Większe dzieci poruszają się samodzielnie w ograniczonym zakresie: na plac zabaw, do szkoły, na imprezę urodzinową czy do kina na film wybrany przez rodzica. Online mogłyby oglądać wybrane przez opiekunów bajki i filmy, korzystać z odpowiednich do wieku gier i aplikacji edukacyjnych – pod kontrolą i na odpowiedzialność rodzica.
Z wiekiem dzieci zyskują większą mobilność. Samodzielnie robią zakupy, odwiedzają miejskie biblioteki. W sieci korzystają z wyszukiwarek i bezpiecznych komunikatorów – wszystkich tych miejsc, które są projektowane jako bezpieczne (safe by default). I tak jak nie muszą się legitymować w spożywczaku, nie muszą też weryfikować wieku w bezpiecznych miejscach w internecie.
Jeśli big techy chcą, żeby dzieci korzystały z ich usług, powinny dla nich i dla nas, dorosłych, zaprojektować bezpieczną przestrzeń publiczną (nieograniczoną bramkami). Bezpieczną, czyli bez profilowania, bez śledzenia i bez szkodliwych treści. Propozycje takich rozwiązań – służących także dorosłym – opisujemy w materiałach Analog solutions for young people’s digital mental health crisis i Safe by Default.
W mieście działają też usługi stworzone z myślą o osobach, które przekroczyły określony próg wiekowy. Hulajnogi elektryczne – od 13. roku życia. Kluby – od 18. roku życia. W kinach są wyświetlane filmy dla dorosłych, na które dzieci tak łatwo nie wejdą. Podobnie w internecie są usługi, które powinny być dostępne dopiero po zweryfikowaniu wieku. W tej kategorii są strony z hazardem, z pornografią i platformy z grami z ograniczeniem wiekowym, ale też platformy (anty)społecznościowe. Jak dowodzą śledztwa Komisji Europejskiej, nie są one w stanie wyeliminować reklam produktów „nie dla dzieci”, cyberprzemocy, groomingu, pornografii, treści zawierających CSAM i innych szkodliwych materiałów.
Zostawianie dzieci bez opieki, eksponowanie ich na kontakt z pornografią, sprzedawanie alkoholu nieletnim, wpuszczanie ich do klubów nocnych – za to wszystko grożą konsekwencje prawne. Właściciel monopolowego może stracić licencję, rodzic – zostać objęty kuratelą sądową, a nawet stracić prawo do opieki. Ale w świecie offline nie poprzestajemy na zakazach i karach. Miasta projektujemy w sposób bezpieczny (place zabaw mają bezpieczną nawierzchnię, ulice są oświetlone itp.). Nieraz popadamy wręcz w przesadę, instalując „inteligentne” kamery i grodząc przestrzeń publiczną.
Jeśli chodzi o platformy (anty)społecznościowe, wahadło wychylone jest w drugą stronę. Usługi projektowane „dla dorosłych” bez większych przeszkód są dostępne dla dzieci. Wypadek przy pracy? Bynajmniej! Platformy internetowe to przestrzenie monitorowane ściślej niż nasze miasta. Ich właściciele doskonale wiedzą, kto się tam kręci po „uliczkach”, z kim przestaje i co kupuje. Nie tylko tolerują obecność dzieci w tych niebezpiecznych „zaułkach”, ale na niej zarabiają.
Jak skorumpowany bramkarz
Dlatego tu i teraz nie mamy innego wyjścia niż stawianie twardych ograniczeń wiekowych – i egzekwowanie ich. Dopóki platformy (anty)społecznościowe nie zapewniają bezpieczeństwa dzieciom, nie powinny mieć do nich dostępu. Skorumpowanych bramkarzy powinny zastąpić automatyczne bramki – systemy niezależne od samych platform, które nie śledzą przechodzących, nie profilują ich i nie wysyłają nigdzie ich danych osobowych, a zarazem są szczelne – nie przepuszczają osób młodszych, niż dopuszcza prawo albo regulamin platformy.
Tą drogą podążają polscy politycy i polityczki, proponując ustawę o podniesieniu wieku korzystania z mediów społecznościowych.
Przestrzegamy jednak polityków, że w dłuższym horyzoncie ta polityka niewiele zmieni – co najwyżej przesunie problemy, jakich doświadczają młodzi ludzie w sieci, o parę lat. Dlatego zamiast skupiać się na blokowaniu dzieciom dostępu do kuszących, wciągających produktów cyfrowych i liczyć na skuteczność tych blokad, europejscy i krajowi regulatorzy powinni zewrzeć szyki, żeby te produkty naprawić. A konkretnie: zmusić firmy technologiczne do ich naprawienia. A jeśli się nie dadzą, odebrać im prawo do świadczenia usług w UE – umożliwia to Akt o usługach cyfrowych (DSA). Dostęp do wspólnego europejskiego rynku powinien być przywilejem, a nie prawem, i to prawem silniejszego.
Zakaz social mediów do 15. roku życia
W ramach tzw. ustawy 15+ dyskutowane jest podniesienie wieku, od którego będzie można korzystać z platform (anty)społecznościowych – z obecnych 13 do 15 lat. Nie poznaliśmy jeszcze treści proponowanej regulacji ani nawet jej założeń.
Z wypowiedzi polityków wynika, że ograniczenie ma dotyczyć wszystkich platform, z których korzystają dzieci, czyli zarówno mało popularnego wśród nich Facebooka, który ostatnio przegrał w USA proces dotyczący uzależniającego projektowania i szkodliwego algorytmu, jak i bardzo popularnego Robloksa, mierzącego się od dłuższego czasu z zarzutami dotyczącymi designu umożliwiającego nieznajomym dorosłym kontakt nawet z czterolatkami.
Dzisiaj platformy same weryfikują wiek użytkowników i użytkowniczek i mimo własnych regulaminów, mówiących, że można korzystać z ich usług od 13. roku życia, Facebook, TikTok czy YouTube masowo wpuszczają dzieci nawet siedmioletnie.
Dlatego samo podniesienie progu wejścia z 13. do 15. roku życia tego nie zmieni. Potrzebne jest skuteczne egzekwowanie tego ograniczenia. Według zapowiedzi weryfikacja wieku miałaby odbywać się w oparciu o europejski portfel tożsamości cyfrowej – Ministerstwo Cyfryzacji pracuje obecnie nad funkcjonalnością pozwalającą na weryfikację wieku. Młodzież po ukończeniu 13. roku życia będzie miała też do dyspozycji tę samą funkcjonalność w ramach konta mObywatel junior.
To rozwiązanie zdecydowanie lepsze niż weryfikowanie wieku przez same platformy w obecnym trybie „skorumpowanego bramkarza”. Zdaniem Prezesa Urzędu Ochrony Danych Osobowych jest też bezpieczne dla danych osobowych, bo opiera się na mechanizmie dowodu wiedzy zerowej, o którym piszemy dalej. Ci, którzy nie będą chcieli korzystać z EUDI Wallet, który w Polsce zapewne przyjmie formę nowej funkcji w mObywatelu, będą mogli sięgnąć po dowolny produkt dostępny na rynku, komercyjny lub nie, o ile tylko będzie działał w oparciu o unijny standard.
Taki mechanizm, czyli dowód wiedzy zerowej, to protokół stosowany na co dzień do zabezpieczania transakcji kryptowalut, w bezpiecznej komunikacji Internet of Things czy w bankowości, na przykład po to, żeby sprawdzić, czy twoja pensja kwalifikuje cię do kredytu hipotecznego, jednocześnie nie ujawniając jej wysokości.
W Unii Europejskiej obecnie trwają intensywne prace nad wdrożeniem europejskiego portfela cyfrowego. W swoim wystąpieniu na CCC organizacja Epic Centre wyjaśniła, jakie wymogi obowiązkowo mają spełniać lokalne portfele – w tym nieobserwowalność, niepowiązywalność i selektywne ujawnianie danych – a które pozostają do decyzji państw. Wyjaśniła też, jak przełożyć to na język rozwiązań technicznych.
Nie wiemy jeszcze, jak dokładnie będzie działał polski protokół. Jesteśmy zaproszeni na spotkanie w Ministerstwie Cyfryzacji i będziemy dążyć do tego, żeby proces był otwarty, a rozwiązanie podlegało technicznej, niezależnej ocenie.
***
Katarzyna Szymielewicz – prawniczka, działaczka społeczna i publicystka. Współzałożycielka i prezeska Fundacji Panoptykon, która – jako pierwsza organizacja w Polsce – kompleksowo zajmuje się problematyką praw człowieka i nowych technologii. W latach 2012–2020 wiceprzewodnicząca europejskiej sieci European Digital Rights. Absolwentka Wydziału Prawa i Administracji UW oraz Development Studies w School of Oriental and African Studies. W przeszłości prawniczka w międzynarodowej kancelarii Clifford Chance, członkini rad społecznych przy Ministrze ds. Cyfryzacji. Członkini Ashoki – międzynarodowej sieci zrzeszającej przedsiębiorców społecznych. Publikowała m.in. „The Guardian”, „Polityce”, „Gazecie Wyborczej”, „Dzienniku Gazecie Prawnej” i magazynie „Pismo”. Laureatka wielu nagród, w tym nagrody Radia TOK FM im. Anny Laszuk „za czujność i podjęcie walki w ważnych i nie zawsze łatwych czy medialnie popularnych sprawach” (2013).