66 proc. użytkowników mediów społecznościowych w Unii Europejskiej aktywnie szuka w nich informacji o bieżących wydarzeniach. Jednocześnie podobny odsetek zetknął się z dezinformacją w ciągu zaledwie siedmiu dni. Eksperci alarmują: problem nie leży w treściach, ale w algorytmach, które promują dezinformację.
W skrócie:

Według badania Eurobarometru "Social Media Survey" z czerwca 2025 roku, dwie trzecie użytkowników mediów społecznościowych w UE traktuje je jako źródło informacji o wydarzeniach społecznych i politycznych. Problem w tym, że równie wielu - w ciągu zaledwie siedmiu dni przed badaniem - zetknęło się tam z fałszywymi wiadomościami.
"Dezinformacja jest świetnym biznesem dla wielkich platform i jej popularność wynika z zasady działania algorytmów, jak również z tego, jak działa system reklamowy" - mówi Katarzyna Szymielewicz, prezeska Fundacji Panoptykon.
Algorytmy rekomendacyjne maksymalizują zaangażowanie użytkowników, a treści kontrowersyjne i emocjonalne - często dezinformacyjne - generują więcej kliknięć niż rzetelne dziennikarstwo.
W Polsce skala problemu jest równie poważna. Badanie SW Research dla Warszawskiego Instytutu Bankowości pokazuje, że 32 proc. ankietowanych wskazało dezinformację i fake newsy jako największe zagrożenie w przestrzeni cyfrowej.
Akt o usługach cyfrowych (DSA), obowiązujący od 17 lutego 2024 roku, wprowadza mechanizmy pozwalające Komisji Europejskiej naciskać na platformy w kwestii modyfikacji algorytmów. Artykuły 34 i 35 DSA umożliwiają określanie środków zaradczych, które powinny wdrażać największe platformy internetowe.
"Nie chodzi tylko o kary. Chodzi o to, żeby współdziałać z platformami albo zmuszać je, kiedy trzeba, do zmiany logiki działania algorytmów na taką, która służy ludziom, demokracji i społeczeństwu" - podkreśla Szymielewicz.
Ekspertka zaznacza, że nie proponuje moderacji treści, która mogłaby prowadzić do cenzury, ale zmianę samego mechanizmu rekomendacji.
W listopadzie 2025 roku Europejska Rada ds. Usług Cyfrowych opublikowała pierwszy raport identyfikujący ryzyka systemowe związane z funkcjonowaniem bardzo dużych platform internetowych. Dokument przedstawia zestaw skutecznych środków ograniczania dezinformacji - pozostaje pytanie, czy zostaną one wyegzekwowane.
Rosnącym wyzwaniem są treści syntetyczne generowane przez sztuczną inteligencję. Badanie Krajowej Rady Radiofonii i Telewizji pokazuje, że ponad 92 proc. ankietowanych wie, że dziennikarze wykorzystują AI, ale dwie trzecie obawia się manipulacji opinią publiczną, a 45 proc. uważa, że zwiększy to ryzyko dezinformacji.
Według regulacji o sztucznej inteligencji, treści syntetyczne powinny być oznaczane jako sztuczne.
"Platformy mogłyby na podstawie takich oznaczeń traktować je jako gorsze, które nie powinny być podbijane na równi z treściami wysokiej jakości, z treściami autentycznymi" - proponuje Szymielewicz.
Problem w tym, że prawie 96 proc. odbiorców oczekuje wyraźnego oznaczania materiałów tworzonych z AI - a mechanizmy egzekwowania tego wymogu wciąż są w fazie projektowania.
Raport WIB wskazuje, że 43 proc. Polaków twierdzi, że sprawdza wiarygodność informacji w przestrzeni cyfrowej, ale tylko 17 proc. robi to kilkoma różnymi metodami.
"Musimy wystąpić razem przeciwko traktowaniu nas jak ludzi, którzy nie zasługują na autentyczne, jakościowe treści" - podsumowuje ekspertka Fundacji Panoptykon.
Według niej, im więcej użytkowników świadomie unika klikania w dezinformacyjne treści, tym szybciej platformy będą zmuszone zmienić logikę swoich algorytmów.
Źródło: Newseria, Eurobarometr, Warszawski Instytut Bankowości, Krajowa Rada Radiofonii i Telewizji, Urząd Komunikacji Elektronicznej
Artykuł może zawierać linki partnerów, umożliwiające rozwój serwisu i dostarczanie darmowych treści.
KSeF i elektroniczny obieg dokumentów - bezpłatna konferencja już 22 stycznia
|
|
|
|
|
|
|
|
Stopka:
© 1998-2026 Dziennik Internautów Sp. z o.o.