Algorytmy social mediów, a dokładniej Mety i TikToka, stały się bohaterami ostatniego materiału BBC. Kulisy działania algorytmów opisano z perspektywy sygnalistów i byłych pracowników tych firm. Z relacji wynika, że w walce o uwagę użytkowników bezpieczeństwo bywało traktowane jako kwestia drugorzędna, choć Meta i TikTok nie zgadzają się z tymi zarzutami.
Algorytmy mediów społecznościowych – co się wydawało marketingowcom
Przez lata w branży marketingowej słyszałam, że algorytmy platform społecznościowych po prostu dopasowują treści do zainteresowań użytkowników. Sama długo patrzyłam na to w podobny sposób, choć wiedziałam, że mechanizmy rekomendacji są projektowane przede wszystkim po to, by zatrzymywać naszą uwagę jak najdłużej. Pisałam zresztą o tym w mojej książce „Świadomość algorytmiczna a ewolucja widowni”.
Moją perspektywę zmieniło doświadczenie po tragedii na mojej uczelni. Kilka dni po brutalnym zabójstwie na Kampusie Głównym Uniwersytetu Warszawskiego, gdy szukałam na Facebooku oficjalnej strony uczelni, natrafiałam w wynikach na treści dezinformacyjne oraz wpisy żerujące na tragedii, w tym materiały ze zdjęciami wykonanymi przez świadków. Nie były to treści, których zwykle szukam ani które normalnie oglądam. A jednak algorytm najwyraźniej uznał, że skoro temat jest dla mnie ważny, warto podsunąć mi więcej podobnych, mocniejszych i bardziej skrajnych materiałów. Na tym właśnie polega efekt „króliczej nory”: jedno kliknięcie może uruchomić ciąg rekomendacji prowadzących coraz głębiej w stronę treści ekstremalnych.
Dlatego zwróciłam uwagę na artykuł Marianny Spring i Mike’a Radforda dla BBC: “Meta and TikTok let harmful content rise after evidence outrage drove engagement, say whistleblowers”, który opowiada o tym, jak Meta i TikTok zarządzają swoimi algorytmami. W tekście przytoczono informacje zebrane przez BBC do dokumentu „Inside the Rage Machine”. Są to relacje sygnalistów o tym, że Meta i TikTok mogły dopuszczać więcej szkodliwych treści, bo te zwiększały zaangażowanie. W tekście przytoczono też odpowiedzi obydwu firm.
Algorytmy social mediów – a co mówią sygnaliści
Według rozmówców redakcji sukces TikToka uruchomił wyścig o uwagę użytkowników, w którym najważniejszą walutą stało się zaangażowanie. Z relacji byłych pracowników Meta wynika, że firma miała dopuścić więcej „granicznych” szkodliwych treści, takich jak mizoginia czy teorie spiskowe, aby skuteczniej konkurować z TikTokiem. Jeden z inżynierów twierdził, że zmiana podejścia była związana z presją biznesową i spadkiem kursu akcji.
Matt Motyl, były badacz Meta, przekazał BBC dokumenty, które mają pokazywać, że firma była świadoma skutków działania własnych algorytmów. Z tych materiałów ma wynikać, że system rekomendacji wzmacniał treści wywołujące silne emocje i oburzenie, bo to właśnie one generowały ponadprzeciętne reakcje użytkowników. Jednocześnie, według relacji innego byłego pracownika, Meta przeznaczyła setki etatów na rozwój Reels, a zespoły odpowiedzialne za bezpieczeństwo dzieci i integralność wyborów nie otrzymały oczekiwanego wsparcia. To sugeruje, że rozwój produktu miał wyższy priorytet niż ograniczanie ryzyka po stronie użytkowników.

Źródło: Adobe Stock
Były inżynier TikToka Ruofan Ding opisuje algorytm rekomendacji jako „czarną skrzynkę”, której działania trudno w pełni kontrolować. Jego zdaniem inżynierowie odpowiedzialni za system rekomendacji traktują treści głównie jako dane, a odpowiedzialność za wychwytywanie szkodliwych materiałów spoczywa na zespołach bezpieczeństwa. Problem polega na tym, że z perspektywy użytkownika taki podział odpowiedzialności niewiele zmienia. Jeśli system rekomendacji działa szybciej niż moderacja, to nawet formalnie zakazane lub wyraźnie szkodliwe treści mogą przez jakiś czas zdobywać zasięgi i wpływać na odbiorców.
W materiale BBC pojawiają się także relacje nastolatków, którzy twierdzili, że mimo korzystania z narzędzi ograniczających niechciane rekomendacje nadal widzieli przemoc i treści pełne nienawiści. W skrajnym przypadku jeden z rozmówców mówił wręcz o „radykalizacji przez algorytm”, która zaczęła się, gdy miał 14 lat. Niepokojące są też obserwacje brytyjskich specjalistów zajmujących się zwalczaniem terroryzmu. Według nich w ostatnich miesiącach w mediach społecznościowych rośnie normalizacja treści antysemickich, rasistowskich, brutalnych i skrajnie prawicowych.
Szczególnie mocny jest fragment dotyczący TikToka i wewnętrznych priorytetów firmy. Pracownik zespołu trust and safety, występujący pod imieniem Nick, twierdzi, że w niektórych przypadkach sprawy dotyczące polityków miały wyższy priorytet niż zgłoszenia dotyczące szkodliwych treści z udziałem dzieci, bo firma chciała utrzymywać dobre relacje z osobami publicznymi i ograniczać ryzyko regulacji.
Oczywiście materiał zawiera także stanowiska obu firm. TikTok nazwał zarzuty sfabrykowanymi i podkreślił, że inwestuje w technologie ograniczające widoczność szkodliwych treści, a także w zabezpieczenia kont nastolatków; Meta zaprzeczyła, że celowo promuje szkodliwe treści dla zysku, i wskazała na wieloletnie inwestycje w bezpieczeństwo użytkowników.
Co z tym można zrobić?
Co z tego wynika? Po pierwsze, nie warto patrzeć na algorytmy social mediów wyłącznie jak na neutralne narzędzia dopasowujące treści do zainteresowań. To systemy projektowane w określonym modelu biznesowym, w którym uwaga użytkownika ma bezpośrednią wartość rynkową.
Po drugie, trudno liczyć wyłącznie na samoregulację platform. Jeśli relacje sygnalistów są trafne, to bezpieczeństwo użytkowników może przegrywać z presją wzrostu, konkurencją i interesem akcjonariuszy.
Po trzecie, potrzebna jest nie tylko presja ze strony mediów i badaczy, ale też skuteczny nadzór regulacyjny. Same przepisy nie wystarczą, jeśli nie będą aktualizowane i egzekwowane wraz ze zmianami modeli biznesowych i technologii platform.
A co może zrobić przeciętny użytkownik? Przede wszystkim dowiadywać się, jak działają algorytmy social mediów i ich systemy rekomendacji, ostrożnie podchodzić do treści wywołujących silne emocje i nie wzmacniać ich bezrefleksyjnym klikaniem, komentowaniem czy udostępnianiem. Z tego powodu sama nie angażuję w skrajnie konfliktowe tematy na platformach społecznościowych, a częściej wykorzystuję własne profile do dzielenia się wiedzą, zainteresowaniami i sprawami ważnymi zawodowo.
Ważna pozostaje też kwestia bezpieczeństwa dzieci i nastolatków. Dorośli nie powinni traktować obecności najmłodszych w internecie jako czegoś całkowicie samoobsługowego: potrzebne są rozmowa, uważność i realne zainteresowanie tym, co dzieci oglądają, jak reagują i w jakie cyfrowe środowiska wchodzą.
Tekst BBC przypomina mi, że algorytmy social mediów nie są neutralnym „lustrem naszych zainteresowań”, ale narzędziami projektowanymi tak, by jak najskuteczniej przyciągać uwagę. Nawet wtedy, gdy oznacza to wzmacnianie treści szkodliwych, skrajnych i oburzających. Dlatego warto nie tylko krytycznie czytać takie materiały i domagać się większej odpowiedzialności od platform oraz regulatorów, ale też na co dzień uważniej korzystać z mediów społecznościowych: nie podbijać zasięgów treści opartych na gniewie, rozmawiać z dziećmi o tym, co widzą w sieci, i świadomie osłabiać mechanizmy, które zamieniają emocje w biznes.



