Wyobraź sobie, że słyszysz nagranie audio burmistrza Londynu, który mówi, że Dzień Pamięci go nie obchodzi. Brzmi absurdalnie? A jednak tysiące ludzi w to uwierzyło – bo głos brzmiał autentycznie. Deepfejk audio Sadiqa Khana z listopada 2023 roku to jeden z co najmniej 15 poważnych kryzysów informacyjnych z udziałem sztucznej inteligencji, które zidentyfikował brytyjski Instytut Alana Turinga między lipcem 2024 a grudniem 2025 roku. Paradoks polega na tym, że AI jest jednocześnie najskuteczniejszym narzędziem do walki z tym, co sama generuje.

Raport CETaS: 15 kryzysów, deepfejki i zatruwanie danych

Raport „Adding Fuel to the Fire: AI Information Threats and Crisis Events", opublikowany 10 lutego 2026 roku przez Centre for Emerging Technology and Security (CETaS) przy Instytucie Alana Turinga, dokumentuje skalę zjawiska. Autorzy – Sam Stockwell, Ardi Janjeva i Broderick McDonald – przeanalizowali trzy kategorie zagrożeń:  

  1. generowanie treści (deepfejki obrazu, wideo i audio),
  2. dystrybucję (sieci botów AI naśladujących ludzkie zachowania)
  3. zatruwanie danych (data poisoning – celowe wprowadzanie fałszywych informacji do zbiorów treningowych modeli AI).

Raport był finansowany przez AI Security Institute – brytyjską agencję rządową – co nadaje mu charakter quasi-oficjalnego dokumentu politycznego. Wyniki omawiano podczas okrągłego stołu w Ambasadzie Brytyjskiej w Warszawie 27 lutego 2026 roku.

Sztuczna inteligencja jest często wykorzystywana do manipulowania opinią publiczną za pomocą tzw. deepfejków. Są to bardzo realistyczne, ale w całości wygenerowane przez AI filmy, obrazy, a nawet nagrania audio, których celem jest przedstawienie ludzi robiących coś, czego w rzeczywistości nie zrobili – mówi Sam Stockwell, badacz CETaS w Instytucie Alana Turinga.

Przykładów nie brakuje.

W lipcu 2024 roku w Southport doszło do tragicznego ataku nożownika – sprawcą był 17-letni Axel Rudakubana urodzony w Walii. Zanim jednak to ustalono, w sieci błyskawicznie pojawiły się fałszywe informacje, że napastnikiem był muzułmański azylant o imieniu „Ali Al-Shakati".

Dezinformacja wzmocniona przez algorytmy mediów społecznościowych i wygenerowane przez AI obrazy doprowadziła do najpoważniejszych zamieszek skrajnie prawicowych w Wielkiej Brytanii od II wojny światowej.

Polska w ogniu informacyjnym – farming botów i „flooding the zone"

fakenews deepfake dezinformacja propaganda

Zagrożenia opisane w raporcie CETaS to nie tylko brytyjska rzeczywistość. Według badania Eurobarometru „Social Media Survey" z czerwca 2025 roku 37 proc. Polaków deklarowało, że w ciągu poprzednich 7 dni było bardzo często lub często narażonych na dezinformację bądź fałszywe wiadomości – kolejne 32 proc. miało z nimi kontakt „czasami". Tylko 4 proc. twierdziło, że się z nimi nie zetknęło.

Jak pisaliśmy na łamach DI w kontekście walki z dezinformacją w UE i zmian algorytmów platform, problem jest strukturalny – i nie rozwiąże go żadna jedna regulacja.

To, co przychodzi ze Wschodu, często przyjmuje formę automatycznych komentarzy, farm botów albo generowania treści z wykorzystaniem sztucznej inteligencji, które nie zawsze są prawdziwe, a czasami celowo mają dezinformować – mówi Jakub Szymik, założyciel CEE Digital Democracy Watch, organizacji zajmującej się integralnością wyborczą i regulacjami cyfrowymi.

Szymik wskazuje na zjawisko określane jako flooding the zone – zalewanie przestrzeni informacyjnej tysiącami nieprawdziwych lub jednostronnych treści generowanych przez jeden podmiot, tanio i masowo, w celu zmiany postrzegania konkretnej kwestii. Raport CETaS podkreśla, że sieci botów AI potrafią jednocześnie wchodzić w interakcje z nieświadomymi użytkownikami, wzmacniając fałszywe narracje w czasie rzeczywistym.

Dane o skali zjawiska mówią same za siebie. Według raportu Parlamentu Europejskiego z lipca 2025 roku w całym 2025 roku mogło być udostępnionych nawet 8 milionów deepfejków – wzrost o 7,5 mln w porównaniu z 2023 rokiem.

Z kolei z monitoringu EDMO (European Digital Media Observatory) wynika, że podczas wyborów europejskich w czerwcu 2024 roku zaledwie 4–5 proc. wykrytej dezinformacji faktycznie pochodziło z narzędzi AI. Co nie oznacza, że był to problem marginalny – oznacza, że większość dezinformacji wciąż tworzą... ludzie.

Wydarzenie / kryzys Rola AI w dezinformacji Data
Deepfejk audio Sadiqa Khana (Londyn) Sfałszowany głos burmistrza sugerujący lekceważenie Dnia Pamięci; wzmacniany przez grupy skrajnie prawicowe Listopad 2023
Zamieszki w Southport (Wielka Brytania) Fałszywe AI-generowane obrazy i dezinformacja o tożsamości sprawcy; najgorsze zamieszki skrajnej prawicy od II w.ś. Lipiec–sierpień 2024
Wybory europejskie (UE) 4–5% wykrytej dezinformacji z narzędzi AI; deepfejki wymierzone w kandydatów; zanieczyszczenie przestrzeni informacyjnej Czerwiec 2024
Operacje wpływu wymierzone w Polskę Farmy botów, generowanie treści AI, polaryzacja narracji w mediach społecznościowych 2024–2025 (ciągłe)

Jak rozpoznać i nie dać się wciągnąć w dezinformację AI?

Dobra wiadomość jest taka, że te same narzędzia, które dezinformację tworzą, potrafią ją też wykrywać. Badacze CETaS wskazują, że algorytmy AI były skutecznie stosowane m.in. do identyfikowania kont botów podczas wyborów europejskich – konta te były następnie usuwane przez platformy.

W Polsce NASK – Państwowy Instytut Badawczy – w ramach programu Parasol Wyborczy w pierwszej połowie 2025 roku zablokował 96% spośród 176 fałszywych kont podszywających się pod kandydatów na prezydenta i obsłużył ponad 27,5 tys. zgłoszeń dotyczących dezinformacji.

Co możesz zrobić sam, zanim AI oczyści za Ciebie internet (co nie nastąpi jutro)?

Kilka praktycznych kroków:

  1. Zanim udostępnisz materiał wideo lub audio – sprawdź źródło i datę publikacji w co najmniej dwóch niezależnych serwisach.
  2. Szukaj anomalii w deepfejkach: nienaturalne mruganie, rozmyte krawędzie twarzy, niezsynchronizowany dźwięk z ruchem ust.
  3. Weryfikuj informacje w serwisach fact-checkingowych – w Polsce działa m.in. Demagog.org.pl oraz zespół OAD w NASK.
  4. Bądź szczególnie czujny w czasie kampanii wyborczych i w pierwszych godzinach po kryzysie – to wtedy dezinformacja rozprzestrzenia się najszybciej.
  5. Korzystaj z narzędzi do odwrotnego wyszukiwania obrazów (Google Images, TinEye) – wiele „aktualnych" zdjęć to materiały sprzed lat.

Warto wiedzieć, że AI może też pomagać w zmianie przekonań

Jak wynika z badania opublikowanego we wrześniu 2024 roku w piśmie „Science", rozmowy z chatbotem AI opartym na GPT-4 Turbo zmniejszyły wiarę w teorie spiskowe średnio o 20 proc. u 2190 uczestników eksperymentu – a efekt utrzymywał się przez co najmniej dwa miesiące.

W kontekście sztucznej inteligencji w kampaniach wyborczych to sygnał, że cyfrowe narzędzia kontrnarracji mogą być równie skuteczne jak same kampanie dezinformacyjne.

Warto zapamiętać

  • AI generuje deepfejki i farmy botów – ale te same narzędzia potrafią je wykrywać i blokować.
  • 37 proc. Polaków deklaruje częsty kontakt z dezinformacją – to jeden z wyższych wyników w UE.
  • Weryfikuj zawsze przed udostępnieniem – deepfejki audio są najtrudniejsze do rozpoznania bez narzędzi.
  • Rozmowa z chatbotem AI może zmniejszyć wiarę w teorie spiskowe – chatbot nie ma uprzedzeń emocjonalnych rozmówcy.

Najczęstsze pytania

Co to jest deepfejk i jak go rozpoznać?

Deepfejk to realistyczny, ale w całości wygenerowany przez sztuczną inteligencję materiał wideo, audio lub obraz, który przedstawia osobę robiącą lub mówiącą coś, czego w rzeczywistości nie robiła. Charakterystyczne sygnały ostrzegawcze to nienaturalne mruganie, rozmyte krawędzie twarzy, brak spójności oświetlenia oraz niesynchronizowany dźwięk z ruchem ust. Warto używać narzędzi do weryfikacji, takich jak Microsoft Video Authenticator lub Deepware Scanner.

Czy AI wpływa na wyniki wyborów?

Według raportu CETaS z lutego 2026 roku brakuje bezpośrednich dowodów, że AI zmieniała wyniki wyborów. Podczas wyborów europejskich w 2024 roku zaledwie 4–5 proc. wykrytej dezinformacji pochodziło z narzędzi AI (dane EDMO). AI wywołuje jednak rosnącą dezorientację co do wiarygodności informacji online i sprzyja polaryzacji wyborców.

Jak AI pomaga w walce z dezinformacją w Polsce?

NASK – Państwowy Instytut Badawczy – prowadzi Ośrodek Analizy Dezinformacji i program Parasol Wyborczy. W pierwszej połowie 2025 roku instytut zablokował 96 proc. fałszywych kont podszywających się pod kandydatów prezydenckich i obsłużył ponad 27,5 tys. zgłoszeń dezinformacyjnych. Algorytmy AI pozwalają na szybkie wykrywanie sieci botów i koordynowanych kampanii wpływu.

Co to jest flooding the zone i dlaczego jest groźny?

Flooding the zone to strategia masowego zalewania przestrzeni informacyjnej dużą liczbą fałszywych lub jednostronnych treści – generowanych tanio i szybko z użyciem AI – w celu zmiany postrzegania danego tematu. Groźba polega na tym, że odbiorca gubi się w natłoku sprzecznych informacji i przestaje ufać jakimkolwiek źródłom, co sprzyja apatii obywatelskiej i polaryzacji.

Gdzie zgłaszać dezinformację w Polsce?

Zgłoszenia dezinformacyjne przyjmuje NASK przez formularz na stronie cert.pl oraz przez dedykowany serwis OAD (Ośrodek Analizy Dezinformacji). Fact-checking prowadzi organizacja Demagog.org.pl. W przypadku deepfejków wymierzonych w polityków lub kandydatów podczas kampanii wyborczej zawiadomienie można złożyć również bezpośrednio do Państwowej Komisji Wyborczej.

Źródła

  • Raport CETaS „Adding Fuel to the Fire: AI Information Threats and Crisis Events", Instytut Alana Turinga, luty 2026 – turing.ac.uk
  • Costello T.H., Pennycook G., Rand D.G., „Durably reducing conspiracy beliefs through dialogues with AI", Science, 13 września 2024 – science.org
  • Eurobarometr „Social Media Survey", Komisja Europejska, czerwiec 2025 – europa.eu
  • EDMO – European Digital Media Observatory, monitoring dezinformacji w wyborach do PE 2024 – edmo.eu
  • NASK – Państwowy Instytut Badawczy, Ośrodek Analizy Dezinformacji, raport Parasol Wyborczy 2025 – cert.pl
  • Full Fact, weryfikacja deepfejka audio Sadiqa Khana, listopad 2023 – fullfact.org
  • Newseria, relacja z okrągłego stołu w Ambasadzie Brytyjskiej w Warszawie, 27 lutego 2026

 


 

Foto: Freepik



Artykuł może zawierać linki partnerów, umożliwiające rozwój serwisu i dostarczanie darmowych treści.

Ostatnie artykuły:


fot. DALL-E






fot. Freepik