Ludzie i style

Sprzątnąć, co naklikali

Kto i jak zajmuje się czyszczeniem internetu z nielegalnych treści

Z dzisiejszego punktu widzenia usuwanie zdjęć to zabieg bezcelowy, podobnie jak ustalanie możliwych do ominięcia zasad. Z dzisiejszego punktu widzenia usuwanie zdjęć to zabieg bezcelowy, podobnie jak ustalanie możliwych do ominięcia zasad. Guido Rosa / Getty Images
Co minutę na YouTube trafia 300 godzin materiału wideo, na Facebooku pojawia się 2,5 mln nowych wpisów. Jak sprawić, by nie było wśród nich obsceny i pornografii? Trzeba zatrudnić służby sprzątające.
Facebook i w Polsce unika odpowiedzi na pytania dotyczące popełnianych błędów i samej pracy nad usuwaniem treści ze strony.Lev Dolgachov/PantherMedia Facebook i w Polsce unika odpowiedzi na pytania dotyczące popełnianych błędów i samej pracy nad usuwaniem treści ze strony.
Każdy, kto zgłaszał kiedyś w naszym kraju obraźliwe treści, wie, że różnie z tym rozumieniem kontekstu na Facebooku bywa.Birgit Korber/PantherMedia Każdy, kto zgłaszał kiedyś w naszym kraju obraźliwe treści, wie, że różnie z tym rozumieniem kontekstu na Facebooku bywa.

Artykuł w wersji audio

Niewielu użytkowników Facebooka czy YouTube zobaczyło dziś na tych serwisach wideo z dziecięcą pornografią, brutalnymi porachunkami karteli narkotykowych czy z torturowaniem zwierząt. A to dzięki zastępom ludzi wcześniej przechwytujących nielegalne treści. Weryfikują zgłoszenia o nadużyciu – także z Polski. Pracują jednak z reguły daleko od nas, a czyszczą zawartość sieci, kiedy my smacznie śpimy. Nie robią tego tylko w trosce o nasze samopoczucie – ich niełatwe zajęcie ma utrzymać wizerunek mediów społecznościowych jako miejsca przyjaznego dla internauty i zapewnić niesłabnące zainteresowanie reklamodawców. Portale społecznościowe niechętnie się przyznają do ogromnego wysiłku wkładanego w takie sprzątanie i, niestety, równie niechętnie ujawniają informacje dotyczące wewnętrznych procedur.

W praktyce wygląda to jednak tak: między każdym kliknięciem „zgłaszam nadużycie” a usunięciem ze strony wszelkich śladów nielegalnej zawartości ktoś dla nas pracuje. Najprawdopodobniej w trudnych warunkach, a na pewno – w warunkach dużego obciążenia psychicznego. Choć cały czas trwają eksperymenty z algorytmami do automatycznej identyfikacji niechcianych wpisów i wideo, to jeżeli chodzi o wychwytywanie niedozwolonych treści, nadal niezastąpiony jest w sieci człowiek.

Tajne przez poufne

Czyszczeniem z niedozwolonych treści serwisów społecznościowych i przechowujących dane zajmuje się na świecie ponad 100 tys. osób. To dwa razy więcej niż jest wszystkich pracowników Google i 14 razy więcej niż liczba zatrudnionych w Facebooku – szacuje Adrian Chen w magazynie „Wired”. Amerykański dziennikarz od kilku lat zajmuje się tym rzadko opisywanym tematem. Kontaktował się z ludźmi, którym zawarte w umowach klauzule poufności nie pozwalają czasem na rozmowę o cięższych aspektach tej codziennej pracy, nawet w samym miejscu zatrudnienia.

Pracują w outsourcingowych firmach, które zajmują się czyszczeniem z nielegalnych treści na całym świecie, m.in. w działającej w Bangalore w Indiach Infosys Technologies. Chen mógł jednak dla „Wired” zupełnie legalnie przyjrzeć się pracy monitorujących treści dla serwisu Whisper w firmie TaskUs na Filipinach. Miejsce nie bez znaczenia – Filipiny to była amerykańska kolonia, więc zakłada się, że ludzie dobrze znają tu język angielski, rozumieją kontekst kulturowy i dlatego coraz częściej wykonują zadania dla wielkich portali społecznościowych ze Stanów Zjednoczonych.

„Kiedy jeden z pracowników, Baybayan, widzi potencjalne naruszenie zasad, przygląda się bliżej, czy na pewno tak jest, usuwa wątek z serwisu, potem wraca do listy miniaturowych zdjęć” – opisuje Chen. „W ciągu 25 minut wyeliminował imponująco różnorodny zestaw zdjęć penisów, egzotycznych przedmiotów wkładanych w głąb ciała, nienawistnych komentarzy czy próśb o seks oralny”.

Taka praca nie pozostaje bez wpływu na psychikę, niewielu wytrzymuje w niej dłużej niż kilka miesięcy. Trudno się temu dziwić, skoro rzucona w takiej firmie informacja, że trafiło się na wideo z dekapitacją, spotyka się z pytaniem, o które z dostępnych w sieci nagrań odcinania głowy chodzi.

W lepszej sytuacji są pracownicy zatrudnieni bezpośrednio w dużych serwisach internetowych. Zajmują się monitorowaniem treści najczęściej tylko przez rok i mogą skorzystać z pomocy psychologa, na którego zatrudnienie firmy outsourcingowe się nie decydują.

Usunąć w tydzień 400 tys. zdjęć

Monitorujący mówią, że tylko początkowo czuje się satysfakcję, usuwając wpisy rasistów i sadystów. Po jakimś czasie dociera do nich, że nie mogą donieść na bohaterów tych klipów na policję, bo nie wiedzą nawet, kto film do sieci wrzucił, kim są przestępcy i skąd pochodzą.

Choć moderacja treści to stosunkowo nowe zajęcie, „New York Times” szacuje, że norma, jaką tacy pracownicy jak Baybayan wyrabiają co tydzień, to mniej więcej 400 tys. zdjęć. Jeżeli chodzi o moderowanie treści na Facebooku, w głównej siedzibie firmy, w Menlo Park w Kalifornii, rozstrzygane są tylko skomplikowane sprawy dotyczące łamania prawa – np. zabronionego w wielu krajach kwestionowania Holocaustu czy karanego w Turcji szkalowania Mustafy Kemala Atatürka. Podobnym przypadkiem będzie teraz zapewne sprawa Zbigniewa Stonogi, bo wiadomo, że Facebook zablokował m.in. dostęp do wrażliwych danych osobowych po ujawnieniu akt afery podsłuchowej. Fundacja Panoptykon przewiduje, że tego typu polskie sprawy rozstrzygane będą również na bieżąco w Kalifornii.

Moderatorzy pozostałych niedozwolonych w regulaminie rasistowskich, seksistowskich czy pornograficznych treści zgrupowani są oficjalnie tylko w trzech dużych siedzibach firmy na świecie. Do centrali w Dublinie trafiają zgłoszenia o łamaniu regulaminu z Rosji, Europy Środkowo-Wschodniej i Północnej, więc ludzie zajmujący się skargami muszą znać języki, którymi posługują się użytkownicy z tych terenów, i rozumieć kontekst kulturowy, także ten polski. Jednak każdy, kto zgłaszał kiedyś w naszym kraju obraźliwe treści, wie, że różnie z tym rozumieniem kontekstu na Facebooku bywa.

Przykładowo wpis „Szmata!” z podlinkowanym artykułem o udziale Ewy Kopacz w uroczystościach w ambasadzie Izraela i znajdujące się pod nim antysemickie komentarze zgłosiła dziennikarka „Gazety Wyborczej” Bianka Mikołajewska (wcześniej w POLITYCE). Na Facebooku przytoczyła odpowiedź, jaka przyszła: „Post nie łamie regulaminu serwisu”. Jeżeli podobne antysemickie treści nie będą zgłaszane, pisała, wszyscy utoniemy niedługo w ścieku.

Nie ona jedna otrzymała odpowiedź odmowną. Osoby zgłaszające przed wyborami polubione przez 22 tys. użytkowników wydarzenie „Zagłosuję na Magdalenę Ogórek, jak pokaże cycki” też początkowo otrzymały informację, że wydarzenie nie łamie regulaminu, czyli nie jest seksistowskie. Ostatecznie wydarzenie zostało usunięte, ale społeczność o tej samej nazwie, z mniejszą liczbą polubień, w serwisie pozostała.

Zablokowany (na krótko) został kilka dni temu facebookowy profil Jarosława Kuźniara. Dziennikarz sugerował, że stoją za tym zwolennicy Zbigniewa Stonogi, którego wcześniej krytykował w mediach społecznościowych. Zdarza się bowiem, że masowe zgłoszenia o „propagowaniu mowy nienawiści” mają charakter zorganizowanej akcji urządzanej tylko po to, by kogoś „wyłączyć”.

Brak tolerancji dla mowy nienawiści

Facebook i w Polsce unika odpowiedzi na pytania dotyczące popełnianych błędów i samej pracy nad usuwaniem treści ze strony. Odsyła do regulaminu i zapewnia, że szanuje lokalną wrażliwość tak samo jak kodeksy prawne. To jednak nie wystarczy, bo działający na całym świecie serwis nie jest w stanie uniknąć nieporozumień. Ostatnio pojawiły się przy okazji usuwania wpisów antyrosyjskich aktywistów z Ukrainy. Odpowiedzialny za politykę firmy we wschodniej Europie Thomas Myrup Kristensen i założyciel portalu Mark Zuckerberg tłumaczyli, że mowa nienawiści nie będzie tolerowana w serwisie, niezależnie od tego, która strona konfliktu na Ukrainie ją stosuje. „Usuwamy wpisy, jeżeli łamią standardy naszej społeczności albo jeżeli otrzymamy nakaz sądowy, a to się nieczęsto dzieje. Wpis, który nie łamie naszych zasad, nie zostanie usunięty, niezależnie od liczby otrzymywanych na niego zgłoszeń” – mówili w trakcie panelu zorganizowanego przez Facebook.

Wspomniane przez Zuckerberga i Kristensena standardy społeczności nie są precyzyjne i przysparzają Facebookowi przez cały czas jego funkcjonowania niemało kłopotów. Po pierwsze, co jeszcze bardziej komplikuje sprawę, obecnie trzy centrale strzegące czystości strony muszą już najprawdopodobniej korzystać ze wsparcia firm zewnętrznych, zajmujących się moderacją treści (tak samo jak wszystkie inne duże serwisy społecznościowe). Choć przedstawiciel Facebooka zaznaczył oficjalnie w rozmowie z „New York Timesem”, że takie próby podejmowane były dotąd na niewielką skalę. Po drugie, pracownicy firm outsourcingowych to młodzi, najczęściej dobrze wykształceni ludzie z krajów afrykańskich czy azjatyckich, którzy dostają na początku średnio dwa dolary za godzinę. Warto to skonfrontować z ostatnią informacją o podwyżkach dla pracowników fizycznych w siedzibie Facebooka w Stanach Zjednoczonych, którzy będą teraz zarabiać minimum 15 dol. za godzinę.

Dolar czy dwa przywiązania do zleceniodawcy nie zbudują, więc jeden z przeszkolonych pracowników z Maroka Amine Derkaoui zdecydował się ujawnić trzy lata temu listę szczególnych zasad, którymi Facebook kazał mu się kierować w pracy. Umożliwił mu to właśnie Adrian Chen, pracujący wtedy w amerykańskim portalu Gawker.

Stop brudnym patyczkom do uszu

Na opublikowanej przez Gawkera liście rzeczy zakazanych znalazła się mowa nienawiści z przykładem prosto z „Conana Barbarzyńcy”. Jeżeli ktoś napisze, że „kocha dźwięk miażdżonych czaszek”, może się – zgodnie z wytycznymi Facebooka – spodziewać zablokowania konta. Wyliczone zostały też niedopuszczalne wtedy zdjęcia i rysunki, które wydają się teraz mało obraźliwe i mocno skupione na przypadkowych detalach. To m.in. wizerunki pijanych, śpiących ludzi ze śladami markera na twarzy czy zdjęcia śliny lub woskowiny usznej, no i oczywiście nadal zakazane na Facebooku i Instagramie (ta firma należy do Facebooka) kobiece sutki – przy czym zdjęcia chłopaków bez koszulek są akceptowane.

Ta lista norm i zakazów pokazywała przy okazji, co dla Amerykanów jest wstydliwe i obraźliwe. Dopuszczała filmy przedstawiające znęcanie się nad zwierzętami (jeżeli wrzucający je użytkownik był torturom wyraźnie przeciwny) oraz fotografie zmiażdżonych głów i kończyn (jeżeli nie było na nich widocznej otwartej rany, bo ludzkie wnętrzności nie są na Facebooku tolerowane).

Lista wytycznych ujawniona przez Derkaoui była dużo dłuższa, ale na pewno została od tego czasu już parokrotnie zaktualizowana. Zresztą przedstawiciele Facebooka tłumaczyli wtedy, że była ona tylko zapisem momentu w rozwoju internetu i budowania jego zasad. Nie zmienia to faktu, że niektóre z zawartych tam zakazów nadal wydają się dziwne i każą się zastanowić może nie nad poziomem, ale nad kluczem dobieranym do kontroli życia w sieci – bo w końcu czy brudny patyczek do uszu musi być czymś na Facebooku zakazanym?

Z dzisiejszego punktu widzenia usuwanie zdjęć to zabieg bezcelowy, podobnie jak ustalanie możliwych do ominięcia zasad. Wydaje się, że z czasem na portalach społecznościowych dopuszczane będzie coraz więcej. Już teraz, w ramach akcji #freethenipple (uwolnij sutka), ludzie walczą o nieusuwanie zdjęć kobiecych piersi z Instagramu, wrzucając własne nagie zdjęcia. A ujęcia karmiących matek znikły w końcu z listy zdjęć uważanych przez Facebook za pornograficzne i nie będą usuwane.

Czyszczenie poważniejszych treści jest ostatecznością. YouTube wygrał nawet przed amerykańskim sądem proces w sprawie niskobudżetowego filmu „Innocence of Muslims”, który przedstawia proroka Mahometa jako mordercę, pedofila i homoseksualistę. Film był kilka lat temu bezpośrednią przyczyną antyamerykańskich zamieszek w Egipcie i Libii. Jego fragment będzie nadal pokazywany w Stanach, choć został już wcześniej zablokowany w części krajów arabskich, a niektóre państwa zablokowały po prostu z powodu tej produkcji cały serwis YouTube.

Obok takich obyczajowych zmian i kulturowych nieporozumień oraz poważnej, żmudnej walki z graficznymi zapisami przestępstw jest jeszcze jeden problem. Decydenci z Facebooka, Twittera czy YouTube zastanawiają się, jak właściwie traktować zapis bieżących wydarzeń ze świata? To zagadnienie bardzo ciekawe, bo ustalając normy, biorą pod uwagę nie tylko korzyści społeczne, ale także względy dyplomatyczne. Chen opisuje w „Wired”, że YouTube podjął decyzję o nieusuwaniu nagrań dokumentujących arabską wiosnę. Zostały tylko poprzedzone przez moderujących treści ostrzeżeniem, że są brutalne. Miały dla serwisu wartość dokumentalną.

Przy okazji złamane zostały jednak przyjęte wcześniej zasady dotyczące niedopuszczania pełnych agresji zdjęć i filmów. Dla pracowników moderujących treści takie decyzje portali społecznościowych stanowią kolejne wyzwanie: jak tu dobrze wykonywać tę pracę, jednocześnie nie tracąc zupełnie wrażliwości?

Polityka 26.2015 (3015) z dnia 23.06.2015; Ludzie i style; s. 96
Oryginalny tytuł tekstu: "Sprzątnąć, co naklikali"
Więcej na ten temat
Reklama

Codzienny newsletter „Polityki”. Tylko ważne tematy

Na podany adres wysłaliśmy wiadomość potwierdzającą.
By dokończyć proces sprawdź swoją skrzynkę pocztową i kliknij zawarty w niej link.

Informacja o RODO

Polityka RODO

  • Informujemy, że administratorem danych osobowych jest Polityka Sp. z o.o. SKA z siedzibą w Warszawie 02-309, przy ul. Słupeckiej 6. Przetwarzamy Twoje dane w celu wysyłki newslettera (podstawa przetwarzania danych to konieczność przetwarzania danych w celu realizacji umowy).
  • Twoje dane będą przetwarzane do chwili ew. rezygnacji z otrzymywania newslettera, a po tym czasie mogą być przetwarzane przez okres przedawnienia ewentualnych roszczeń.
  • Podanie przez Ciebie danych jest dobrowolne, ale konieczne do tego, żeby zamówić nasz newsletter.
  • Masz prawo do żądania dostępu do swoich danych osobowych, ich sprostowania, usunięcia lub ograniczenia przetwarzania, a także prawo wniesienia sprzeciwu wobec przetwarzania, a także prawo do przenoszenia swoich danych oraz wniesienia skargi do organu nadzorczego.

Czytaj także

Kraj

Osamotnienie – dżuma współczesności?

Mamy w Polsce 5 mln jednoosobowych gospodarstw domowych. Na razie co czwarte gospodarstwo. W 2035 r. – co trzecie.

Ewa Wilk
08.02.2019
Reklama

Ta strona do poprawnego działania wymaga włączenia mechanizmu "ciasteczek" w przeglądarce.

Powrót na stronę główną