Coraz trudniej będzie odróżnić czy zdjęcie lub film, które oglądamy w sieci jest prawdziwe czy nie. Sztuczna inteligencja tworzy (na ludzkie polecenie) coraz lepsze zdjęcia i wideo. Jeszcze bywają niedoskonałe, ale za kilka lat, kto wie, czy będziemy w stanie stwierdzić, czy jest prawdziwe, czy nie. Dla manipulatorów i populistów nadchodzą jeszcze lepsze czasy...
Różne fałszywe informacje w sieci, w tym te tworzone z wykorzystaniem techniki deepfake, łatwo trafiają do szerokiego kręgu odbiorców. Napotkamy je bez wysiłku, przeglądając codziennie różne media, w szczególności społecznościowe. Tworzone są nie tylko "dla beki", jak mówią młodzi, ale coraz częściej także świadomie ze złą intencją, aby komuś zaszkodzić. W polityce w zasadzie to już powstają na bieżąco. Niedawno byliśmy świadkami relacji rozmowy prezydentów Trumpa i Zełenskiego w Owalnym Gabinecie w Białym Domu, które zakończyło się kłótnią i przerwaniem spotkania. Nie minął dzień, a już można było obejrzeć fake-filmiki, w których obaj panowie okładają się pięściami podczas tej rozmowy. Minie trochę czasu i ludzie naprawdę zaczną wierzyć, że Ziemia jest płaska.
Sprawa już jest poważna także w odniesieniu do kształcenia i wychowania młodych ludzi - o czym świadczą wyniki różnych badań. Coraz więcej nastolatków staje się celem manipulacji i deepfejków.
W Stanach Zjednoczonych co ósma osoba w wieku od 13-20 lat i co dziesiąta w wieku 13-17 lat — stwierdziła, że „osobiście zna kogoś”, kto był celem deepfejkowych nagich zdjęć. Jedna na siedemnaście przyznała, że sama była celem. Z kolei 13% nastolatków stwierdziło, że zna kogoś, kto używał AI do tworzenia lub redystrybucji deepfake pornografii nieletnich. Dane te pochodzą z badania (wrzesień-październik 2024) amerykańskiej organizacji Thorn, której misją jest ochrona dzieci przed przemocą, zwłaszcza seksualną. Raport z ostatniego badania podkreśla względną łatwość, z jaką młodzi ludzie mogą tworzyć deepfake: 71% respondentów, którzy tworzyli deepfake zdjęcia innych osób, stwierdziło, że znaleźli technologię do tego celu w mediach społecznościowych; 53% stwierdziło, że znaleźli narzędzia za pośrednictwem wyszukiwarki internetowej[1]. Narzędzia są więc powszechnie dostępne i każdy może z nich korzystać.
A zatem też coraz częściej świadomie z nich korzystamy. Ale nie mając świadomości, że to może wyrządzić krzywdę. Raport Thorn podkreśla rozdźwięk między powszechną wiedzą nastolatków na temat deepfake’ów a postrzeganiem szkód wyrządzanych przez te obrazy. Zbyt wielu młodych ludzi nie uważa automatycznie obrazów deepfake za szkodliwe. Ale skoro podobnie jest z dorosłymi, to czemu się dziwić.
Wyniki innego badania[2], również organizacji nonprofit, która od lat specjalizuje się w badaniu internetu i wpływu technologii i dezinformacji na nasze życie wskazują, że sztuczna inteligencja i deepfake coraz częściej wprowadzają nastolatków w błąd, utrudniając im weryfikację informacji online. Według Common Sense Media już 35% amerykańskich nastolatków (13-18 lat) padło ofiarą fałszywych treści, a 22%. udostępniło nieprawdziwe informacje znajomym. Młodzi nie przechodzą obojętnie obok tych technologii - 70% nastolatków przynajmniej raz używało już narzędzi AI do tworzenia treści do sieci. Zdaniem badaczy - możemy obserwować spadek zaufanie nastolatków do bigtechów takich jak Google, Apple, MetaTikTok czy Microsoft (to akurat może i pozytywne zjawisko, w pewnym sensie...). Już 19% badanych przyznaje, że im w ogóle nie ufa, a 14% nie ma pewności, czy jeszcze ufają; małe zaufanie deklaruje 28%.
Ponieważ sztuczna inteligencja znacznie ułatwiła tworzenie fałszywych treści, coraz więcej amerykańskich nastolatków twierdzi, że są wprowadzani w błąd w internecie, coraz trudniej jest im określić, co jest prawdziwe, a co nie, natomiast sama weryfikacja zajmuje zbyt dużo czasu, a na koniec i tak nie ma pewności, że dana treść przypadkiem nie została wyprodukowana przez AI.
Wygląda na to, że wyzwania, z którymi przyjdzie nam się mierzyć, to już nie tylko sprawa szkoły, ale znacznie poważniejsza. Bez wprowadzania odpowiednich regulacji prawnych, będziemy łatwo podatni na manipulacje i różne spiskowe teorie. Już tego jest za dużo w sieci. W zasadzie to już mniej media społecznościowe, a bardziej śmieciowe. Ale myślę, że jeszcze spora część społeczeństw tego nie dostrzega.
Początkowo problemem były tylko teksty i zdjęcia, ale dziś deepfejki to najczęściej już obrazy i wideo. Jeszcze można dostrzec i sprawdzić, czy to nie jest sfabrykowany produkt AI. Ale - tu rację mają badani nastolatkowie - dostrzeżenie różnic i błędów działania sztucznej inteligencji wymaga jednak czasu i technik niemal detektywistycznych. Zobaczmy na przykład porady Stowarzyszenia Demagog, które poświęciło jeden z wpisów rozpoznawaniu błędów w obrazach tworzonych przez AI[3]. Na co musimy zwracać uwagę:
- Zawsze patrz na wszystkie szczegóły obrazu. Niemal każdy błąd ma znaczenie
- Sprawdź, czy zdjęcie lub widoczne na nim obiekty istnieją – to proste! Jeżeli po dokładnym przeglądzie szczegółów zdjęcie wydaje się nam prawdziwe, to warto zrobić jeszcze jedną rzecz – sprawdzić, czy osoby lub obiekty na nim widoczne w ogóle istnieją. Jak to zrobić? Z pomocą przychodzi nam wiele narzędzi, w tym m.in. Obiektyw Google, który podpowiada, jakie elementy są widoczne na fotografii, lub wskaże nam inne miejsca publikacji tego samego zdjęcia.
- Użyj wybranych narzędzi dedykowanych do rozpoznawania deepfake’ów. Np. od Thehive.ai – o nazwie AI-generated Image Detection. Pozwala ono ocenić, czy obraz został stworzony w generatorze grafik. Jeżeli grafika została wygenerowana w jednym z ww. generatorów, to narzędzie przedstawi nam prawdopodobny udział ingerencji AI (w zakresie od 0.000 do 1.000), nawet jeżeli wprowadzimy pewne modyfikacje.
Powołuję się na badania amerykańskie, ale możemy także sięgnąć do PISA 2022, o którym niedawno pisaliśmy[4]. Problem dotyczy także Polski. 31 procent polskich uczniów uczestniczących w badaniu PISA 2022 przyznało, że nie sprawdza rzetelności informacji, które udostępnia na portalach społecznościowych. 69 procent uczniów w Polsce porównuje informacje z różnych źródeł internetowych.
AI to szansa na szybszy rozwój cywilizacji. Niestety przy złych intencjach to również zagrożenie dla demokracji i racjonalnego myślenia. Manipulacja obrazem i materiałami wideo dzięki narzędziom wspieranym przez AI stała się dziś prostsza niż kiedykolwiek. Fałszywe zdjęcia i deepfejki służą nie od dziś dezinformacji politycznej - widzieliśmy to między innymi już przy Brexicie w Wielkiej Brytanii, przy wyborach w USA przed I kadencją Prezydenta Trumpa (i przed II także), czy przy agresji Rosji na Ukrainę i towarzyszącej jej do dziś wojnie informacyjnej.
Na pewno jest o czym rozmawiać z uczniami i studentami (tak, uczelnie wyższe też mają tu coś do odrobienia). Jak nabyć odporność na dezinformację i deepfejki? Czy to w ogóle możliwe we współczesnym internecie? Przydałaby się jakaś potężna koalicja na rzecz rozwoju kompetencji krytycznego myślenia, u młodych i dorosłych. Zwłaszcza u dorosłych…
Źródła:
[1] Zob. EducationWeek, 3.03.2025; https://www.edweek.org/technology/more-teens-than-you-think-have-been-deepfake-targets/2025/03
[2] Zob. Common Sense Media, badanie Nastolatki, zaufanie i technologia w epoce sztucznej inteligencji, 2025; https://www.commonsensemedia.org/research/research-brief-teens-trust-and-technology-in-the-age-of-ai
[3] Zob Oślepieni deepfakeami, Demagog.org; https://demagog.org.pl/analizy_i_raporty/oslepieni-deepfakeami-jak-sprawdzic-czy-to-ai-stworzylo-obraz/
[4] Zob. Zanim udostępnisz, sprawdź to!