To, co widzisz podczas przeglądania mediów społecznościowych, bardzo często nie jest Twoim świadomym wyborem. To nie Ty „idziesz po treść” — to treść przychodzi do Ciebie, podana w kolejności ułożonej przez algorytm. Feed wygląda jak neutralna lista, ale w praktyce jest wynikiem selekcji: ktoś (a dokładniej coś) decyduje, co ma Ci się wyświetlić teraz, co ma zostać podbite, a co ma zniknąć. I zwykle nie po to, żebyś zobaczył to, co dla Ciebie najlepsze, tylko to, co najskuteczniej zatrzyma Cię na dłużej.
Człowiek ma swoje „włączniki” które wskazują co go ciekawi, co go złości, co go uspokaja, co go niepokoi. W naturze te włączniki kształtowało środowisko powoli i lokalnie. W cyfrowym świecie algorytm uczy się ich szybciej, bo obserwuje Twoje zachowanie w skali mikro — niemal w każdej sekundzie przewijania. Zostawiamy po sobie ślady behawioralne nawet wtedy, gdy nic nie lajkujemy i nic nie piszemy. Liczy się to, jak długo zatrzymujesz scroll na danym poście, czy wracasz do niego wzrokiem, czy otwierasz komentarze, czy klikasz „więcej”, czy oglądasz wideo do końca, w którym momencie przerywasz, czy przewijasz szybko, czy robisz pauzę. Do tego dochodzą sygnały „negatywne” i „pośrednie”: czy coś ukrywasz, czy pomijasz, czy wyciszasz konto, czy zgłaszasz treść, ale też czy po obejrzeniu konkretnego materiału zaczynasz szukać podobnych rzeczy, czy wchodzisz w dyskusje, czy od razu odblokowujesz telefon po powiadomieniu. Nawet kolejność, w jakiej oglądasz rzeczy, i to, przy jakich tematach spędzasz więcej czasu późnym wieczorem, potrafi być dla systemu informacją o Twoim nastroju i podatności na bodźce.
W kontekście prywatności ważne jest to, że te ślady nie są „niewinne”. One tworzą profil przewidywań: co Cię zatrzyma, co Cię pobudzi, co Cię zdenerwuje, co Cię uspokoi, co sprawi, że klikniesz, wrócisz jutro i zostaniesz jeszcze chwilę. Część danych podajesz wprost (konto, wiek, lokalizacja, sieć znajomych, treści, które tworzysz), ale ogromna część powstaje z obserwacji zachowania. I często to właśnie te dane behawioralne są najbardziej cenne, bo mówią nie tyle kim deklarujesz, że jesteś, tylko jak reagujesz w praktyce. Z perspektywy ochrony prywatności to istotne, bo nawet bez ujawniania wrażliwych informacji wprost, z wzorców zachowań da się dużo wnioskować: co Cię interesuje, czego się boisz, na co jesteś wrażliwy, w jakim jesteś stanie, co Cię nakręca, a co uspokaja.
Potem algorytm robi coś jeszcze: testuje. Podsuwa różne wersje treści i sprawdza, które „łapią” mocniej. Jeśli zatrzymasz się przy tematach konfliktowych, dostaniesz ich więcej. Jeśli wciągają Cię krótkie, dynamiczne formy, będzie ich przybywać. Jeśli reagujesz na kontrowersję, dramat, oburzenie albo sensację — system szybko nauczy się, że to działa. Powstaje pętla: im częściej coś oglądasz lub w coś wchodzisz, tym częściej to dostajesz, a im częściej to dostajesz, tym większa szansa, że znowu na to zareagujesz. To potrafi stopniowo zawężać to, co widzisz, aż zaczyna wyglądać jak „mój świat”, chociaż to w dużej mierze wynik selekcji.
I tu jest kluczowy moment: bardzo często widzisz w social mediach rzeczy, których sam w ogóle nie szukałeś. Nie wpisywałeś tego w wyszukiwarkę, nie planowałeś tego oglądać, nie prosiłeś o ten temat — po prostu zostało Ci to podane, bo miało duże szanse Cię zatrzymać. A treści, które widzisz, wpływają na to, jak się czujesz. Jeśli karmisz się napięciem, porównywaniem się, katastrofami, konfliktami i bodźcami „na gorąco”, to organizm reaguje: rośnie pobudzenie, łatwiej o rozdrażnienie, trudniej o spokój i koncentrację. Jeśli feed jest pełen perfekcyjnych obrazków i sukcesów, łatwo o poczucie, że „inni mają lepiej”. Jeśli jest pełen zagrożeń i awantur, łatwo o lęk i zmęczenie. Innymi słowy: feed nie tylko pokazuje świat — on współtworzy Twój nastrój, bo emocje są zakaźne, a uwaga jest bramą do samopoczucia.
Innymi słowy można powiedzieć, że algorytmy uczą się na śladach behawioralnych (czas, zatrzymania, kliknięcia, powroty, oglądanie do końca) i stale testują, co najsilniej przyciąga uwagę. Tworzy się sprzężenie zwrotne: im częściej coś angażuje Twoją uwagę, tym częściej to dostajesz. Treści emocjonalne często wygrywają, bo są bardziej zauważalne i szybciej uruchamiają reakcję — a reakcja jest paliwem dla systemu rekomendacji. W efekcie to, co widzisz, bywa mniej „Twoim wyborem”, a bardziej wynikiem tego, co najłatwiej uruchamia Twoje włączniki.
Jak się przeciwstawić:
- Regularnie „czyść” sygnały: historia oglądania/wyszukiwania, reset rekomendacji (jeśli dostępne).
- Świadomie karm algorytm tym, co ci służy: wyszukuj i oglądaj treści edukacyjne/uspokajające.
- Korzystaj z subskrypcji/playlist zamiast „For You” (mniej podatne na emocjonalne haczyki).
Notka o autorze: Maciej Dębski jest założycielem i prezesem fundacji DBAM O MÓJ ZASIĘG. Socjolog problemów społecznych, wykładowca akademicki, edukator społeczny, ekspert w realizacji badań naukowych, ekspert Najwyższej Izby Kontroli, Rzecznika Praw Obywatelskich, autor/współautor publikacji na naukowych z zakresu problemów społecznych (bezdomność, przemoc w rodzinie, uzależnienia od substancji psychoaktywnych, uzależnienia behawioralne), autor/współautor dokumentów strategicznych, programów lokalnych, pomysłodawca ogólnopolskich badań z zakresu fonoholizmu i problemu cyberprzemocy zrealizowanych wśród 22.000 uczniów oraz 4.000 nauczycieli.
***
W porozumieniu z dr Maciejem Dębskim z Fundacji Dbam o mój zasięg publikujemy w 15 odcinkach cykl poświęcony higienie cyfrowej młodych i dorosłych, który jest przeredagowaną wersją opracowania pt. „Kiedy zdrowe popędy stają się złymi nałogami – jak w prosty sposób zrujnować higienę cyfrową?” (tutaj).
W tym cyklu opisujemy wybrane mechanizmy biologicznego i psychologicznego „uwodzenia” nas ludzi jako użytkowników cyfrowych rozwiązań. Nie po to, żeby demonizować internet, ale po to, żeby odzyskać własną sprawczość także w sieci. Bo higiena cyfrowa zaczyna się od prostej zasady: „jeśli rozumiesz, jak działasz, trudniej tobą sterować."
Przeczytaj pozostałe artykuły z tego cyklu:
#4 Najsilniej uczy... niespodzianka
#7 Bez końca, czyli bez hamulca...


