Kiedy platforma społecznościowa Twitter zablokowała konto (szczęśliwie byłego) prezydenta Trumpa, pokazało to dobitnie, kto dziś ma władzę. Prywatne korporacje stworzyły dominującą przestrzeń wymiany komunikatów. O tym, co w nich wolno użytkownikom, decydują mętne regulaminy oraz półautomatyczna moderacja, która – jak się nieraz okazywało – niezbyt lubi „nieprzyzwoitą” sztukę.
Problem z treściami zamieszczanymi przez użytkowników jest stary jak media społecznościowe; jego świadomość przybrała na sile w ostatnich, niespokojnych czasach. Fake newsy, czyli kłamliwe informacje, mogą wywoływać niepokoje społeczne; wpływać na zdrowie i życie ludzkości. Ciągle nierozwiązanym problemem jest kwestia cyberprzemocy seksualnej, na którą są narażone głównie użytkowniczki. Korporacje podejmują różne kroki, o których można w najlepszym razie powiedzieć, że są niedoskonałe – albo że idą po linii najmniejszego oporu. Procedury i techniczna strona moderacji Facebooka czy TikToka są okryte tajemnicą. Z szybkości reakcji można wnioskować, że kontrolą zajmuje się cyborg – połączenie automatycznego algorytmu i ludzkich operatorów. Oba są niedoskonałe, jeśli chodzi o rozumienie kontekstu umieszczanej treści.
Troskliwe oko cyborga
Zdumiała mnie np. błyskawiczna reakcja na wrzucenie na Facebooka zdjęcia z gry „Death Stranding”, przedstawiającego głównego bohatera (w tej roli Norman Reedus), który przykładał sobie pistolet do głowy. Czuły cyborg momentalnie zablokował wyświetlanie zdjęcia, a specjalny komunikat wyraził troskę o moją kondycję psychiczną i zasugerował szukanie pomocy dla osób o myślach samobójczych. Z innego obrazka mechanizm moderacji wyłuskał słowa „Heil” i „Hitler” i pogroził cyfrowym paluszkiem – rzeczy związanych z szerzeniem nienawiści nie wolno publikować na Facebooku!