Wyobraź sobie, że słyszysz nagranie audio burmistrza Londynu, który mówi, że Dzień Pamięci go nie obchodzi. Brzmi absurdalnie? A jednak tysiące ludzi w to uwierzyło – bo głos brzmiał autentycznie. Deepfejk audio Sadiqa Khana z listopada 2023 roku to jeden z co najmniej 15 poważnych kryzysów informacyjnych z udziałem sztucznej inteligencji, które zidentyfikował brytyjski Instytut Alana Turinga między lipcem 2024 a grudniem 2025 roku. Paradoks polega na tym, że AI jest jednocześnie najskuteczniejszym narzędziem do walki z tym, co sama generuje.
Raport „Adding Fuel to the Fire: AI Information Threats and Crisis Events", opublikowany 10 lutego 2026 roku przez Centre for Emerging Technology and Security (CETaS) przy Instytucie Alana Turinga, dokumentuje skalę zjawiska. Autorzy – Sam Stockwell, Ardi Janjeva i Broderick McDonald – przeanalizowali trzy kategorie zagrożeń:
Raport był finansowany przez AI Security Institute – brytyjską agencję rządową – co nadaje mu charakter quasi-oficjalnego dokumentu politycznego. Wyniki omawiano podczas okrągłego stołu w Ambasadzie Brytyjskiej w Warszawie 27 lutego 2026 roku.
Sztuczna inteligencja jest często wykorzystywana do manipulowania opinią publiczną za pomocą tzw. deepfejków. Są to bardzo realistyczne, ale w całości wygenerowane przez AI filmy, obrazy, a nawet nagrania audio, których celem jest przedstawienie ludzi robiących coś, czego w rzeczywistości nie zrobili – mówi Sam Stockwell, badacz CETaS w Instytucie Alana Turinga.
Przykładów nie brakuje.
W lipcu 2024 roku w Southport doszło do tragicznego ataku nożownika – sprawcą był 17-letni Axel Rudakubana urodzony w Walii. Zanim jednak to ustalono, w sieci błyskawicznie pojawiły się fałszywe informacje, że napastnikiem był muzułmański azylant o imieniu „Ali Al-Shakati".
Dezinformacja wzmocniona przez algorytmy mediów społecznościowych i wygenerowane przez AI obrazy doprowadziła do najpoważniejszych zamieszek skrajnie prawicowych w Wielkiej Brytanii od II wojny światowej.

Zagrożenia opisane w raporcie CETaS to nie tylko brytyjska rzeczywistość. Według badania Eurobarometru „Social Media Survey" z czerwca 2025 roku 37 proc. Polaków deklarowało, że w ciągu poprzednich 7 dni było bardzo często lub często narażonych na dezinformację bądź fałszywe wiadomości – kolejne 32 proc. miało z nimi kontakt „czasami". Tylko 4 proc. twierdziło, że się z nimi nie zetknęło.
Jak pisaliśmy na łamach DI w kontekście walki z dezinformacją w UE i zmian algorytmów platform, problem jest strukturalny – i nie rozwiąże go żadna jedna regulacja.
To, co przychodzi ze Wschodu, często przyjmuje formę automatycznych komentarzy, farm botów albo generowania treści z wykorzystaniem sztucznej inteligencji, które nie zawsze są prawdziwe, a czasami celowo mają dezinformować – mówi Jakub Szymik, założyciel CEE Digital Democracy Watch, organizacji zajmującej się integralnością wyborczą i regulacjami cyfrowymi.
Szymik wskazuje na zjawisko określane jako flooding the zone – zalewanie przestrzeni informacyjnej tysiącami nieprawdziwych lub jednostronnych treści generowanych przez jeden podmiot, tanio i masowo, w celu zmiany postrzegania konkretnej kwestii. Raport CETaS podkreśla, że sieci botów AI potrafią jednocześnie wchodzić w interakcje z nieświadomymi użytkownikami, wzmacniając fałszywe narracje w czasie rzeczywistym.
Dane o skali zjawiska mówią same za siebie. Według raportu Parlamentu Europejskiego z lipca 2025 roku w całym 2025 roku mogło być udostępnionych nawet 8 milionów deepfejków – wzrost o 7,5 mln w porównaniu z 2023 rokiem.
Z kolei z monitoringu EDMO (European Digital Media Observatory) wynika, że podczas wyborów europejskich w czerwcu 2024 roku zaledwie 4–5 proc. wykrytej dezinformacji faktycznie pochodziło z narzędzi AI. Co nie oznacza, że był to problem marginalny – oznacza, że większość dezinformacji wciąż tworzą... ludzie.
| Wydarzenie / kryzys | Rola AI w dezinformacji | Data |
|---|---|---|
| Deepfejk audio Sadiqa Khana (Londyn) | Sfałszowany głos burmistrza sugerujący lekceważenie Dnia Pamięci; wzmacniany przez grupy skrajnie prawicowe | Listopad 2023 |
| Zamieszki w Southport (Wielka Brytania) | Fałszywe AI-generowane obrazy i dezinformacja o tożsamości sprawcy; najgorsze zamieszki skrajnej prawicy od II w.ś. | Lipiec–sierpień 2024 |
| Wybory europejskie (UE) | 4–5% wykrytej dezinformacji z narzędzi AI; deepfejki wymierzone w kandydatów; zanieczyszczenie przestrzeni informacyjnej | Czerwiec 2024 |
| Operacje wpływu wymierzone w Polskę | Farmy botów, generowanie treści AI, polaryzacja narracji w mediach społecznościowych | 2024–2025 (ciągłe) |
Dobra wiadomość jest taka, że te same narzędzia, które dezinformację tworzą, potrafią ją też wykrywać. Badacze CETaS wskazują, że algorytmy AI były skutecznie stosowane m.in. do identyfikowania kont botów podczas wyborów europejskich – konta te były następnie usuwane przez platformy.
W Polsce NASK – Państwowy Instytut Badawczy – w ramach programu Parasol Wyborczy w pierwszej połowie 2025 roku zablokował 96% spośród 176 fałszywych kont podszywających się pod kandydatów na prezydenta i obsłużył ponad 27,5 tys. zgłoszeń dotyczących dezinformacji.
Kilka praktycznych kroków:
Jak wynika z badania opublikowanego we wrześniu 2024 roku w piśmie „Science", rozmowy z chatbotem AI opartym na GPT-4 Turbo zmniejszyły wiarę w teorie spiskowe średnio o 20 proc. u 2190 uczestników eksperymentu – a efekt utrzymywał się przez co najmniej dwa miesiące.
W kontekście sztucznej inteligencji w kampaniach wyborczych to sygnał, że cyfrowe narzędzia kontrnarracji mogą być równie skuteczne jak same kampanie dezinformacyjne.
Deepfejk to realistyczny, ale w całości wygenerowany przez sztuczną inteligencję materiał wideo, audio lub obraz, który przedstawia osobę robiącą lub mówiącą coś, czego w rzeczywistości nie robiła. Charakterystyczne sygnały ostrzegawcze to nienaturalne mruganie, rozmyte krawędzie twarzy, brak spójności oświetlenia oraz niesynchronizowany dźwięk z ruchem ust. Warto używać narzędzi do weryfikacji, takich jak Microsoft Video Authenticator lub Deepware Scanner.
Według raportu CETaS z lutego 2026 roku brakuje bezpośrednich dowodów, że AI zmieniała wyniki wyborów. Podczas wyborów europejskich w 2024 roku zaledwie 4–5 proc. wykrytej dezinformacji pochodziło z narzędzi AI (dane EDMO). AI wywołuje jednak rosnącą dezorientację co do wiarygodności informacji online i sprzyja polaryzacji wyborców.
NASK – Państwowy Instytut Badawczy – prowadzi Ośrodek Analizy Dezinformacji i program Parasol Wyborczy. W pierwszej połowie 2025 roku instytut zablokował 96 proc. fałszywych kont podszywających się pod kandydatów prezydenckich i obsłużył ponad 27,5 tys. zgłoszeń dezinformacyjnych. Algorytmy AI pozwalają na szybkie wykrywanie sieci botów i koordynowanych kampanii wpływu.
Flooding the zone to strategia masowego zalewania przestrzeni informacyjnej dużą liczbą fałszywych lub jednostronnych treści – generowanych tanio i szybko z użyciem AI – w celu zmiany postrzegania danego tematu. Groźba polega na tym, że odbiorca gubi się w natłoku sprzecznych informacji i przestaje ufać jakimkolwiek źródłom, co sprzyja apatii obywatelskiej i polaryzacji.
Zgłoszenia dezinformacyjne przyjmuje NASK przez formularz na stronie cert.pl oraz przez dedykowany serwis OAD (Ośrodek Analizy Dezinformacji). Fact-checking prowadzi organizacja Demagog.org.pl. W przypadku deepfejków wymierzonych w polityków lub kandydatów podczas kampanii wyborczej zawiadomienie można złożyć również bezpośrednio do Państwowej Komisji Wyborczej.
Foto: Freepik
Artykuł może zawierać linki partnerów, umożliwiające rozwój serwisu i dostarczanie darmowych treści.
Zmienne oprocentowanie kredytu hipotecznego znów w modzie - czy liczby kłamią?
© 1998-2026 Dziennik Internautów Sp. z o.o.