Apple Facebook Google Microsoft badania bezpieczeństwo patronat DI prawa autorskie serwisy społecznościowe smartfony

Uwaga: Wizerunek TVP i programu i9:30 wykorzystany przez przestępców przy użyciu technologii deepfake

08-01-2024, 11:30

Zobacz jak cyberprzestępcy wykorzystali wizerunek Marka Czyża, prezentera programu informacyjnego i9:30 TVP, logo stacji i programu do bezprawnego promowania aplikacji hazardowej.

robot sprzątający

reklama


deepfake z tvp i markiem czyżem

Co się stało:

W social mediach pojawił się niedawno film przedstawiający rzekomy materiał z serwisu informacyjnego TVP.

  • W filmie zatytułowanym „Samotna mama z Warszawy została milionerką dzięki aplikacji blogera Mr Beast” Marek Czyż ma zachęcać do pobrania aplikacji hazardowej.
  • W materiale pojawia się także rzekoma zwyciężczyni oraz vloger MrBeast, a dla uwiarygodnienia rzekomych przychodów także wizerunek PKO BP i jego aplikacji bankowej.
  • Film kończy się zachętą do klikania w osadzony w nim link i „wejścia do gry”.
  • Aby wypowiedzi Marka Czyża oraz rzekomej zwyciężczyni brzmiały wiarygodnie, cyberprzestępcy wykorzystali technologię deepfake. Tego typu materiały wykorzystują sztuczną inteligencję do tworzenia filmów lub zdjęć z wizerunkiem wybranych osób, które do złudzenia przypominają prawdziwe.
  • Do promowania materiału wykorzystano markę popularnego w Brazylii, ale nieznanego w Polsce medium. To oraz fakt, iż po dokładniejszym obejrzeniu widać pewne niespójności („samotna mama z Warszawy” ma mieć na imię Hanah, a jej wypowiedź i pojawiające się na ekranie screeny z aplikacji zawierają błędy językowe) może wskazywać, że oszustwo zostało opracowane przez zagranicznych cyberprzestępców.

Dlaczego to ważne:

Obecnie coraz trudniej stwierdzić czy dany materiał jest wytworem AI. Narzędzia do tworzenia materiałów deepfake są na wyciągnięcie ręki dla każdego cyberprzestępcy. Bardzo szybko rozwija się technologia związana z klonowaniem głosu.

  • Filmy stworzone przez AI pozwalają przypisać prawie każdej osobie dowolne słowa, nawet te, których nigdy nie wypowiedziała. Jedynym warunkiem stworzenia takiego materiału jest dostęp do większej liczby autentycznych nagrań wideo i audio z udziałem danej osoby. To na ich podstawie AI generuje nowy materiał.
  • Osoby publiczne i medialne są więc łakomym kąskiem dla cyberprzestępców wykorzystujących deepfake, ponieważ nagrania z ich udziałem są powszechnie dostępne.

Finalnym celem cyberprzestępców sięgających po nowoczesne technologie w ten sposób, jest zwykle wyłudzenie danych lub środków finansowych od nieświadomych użytkowników, a wykorzystanie zaufania, jakim obdarzamy osoby publiczne, to jeden z cynicznych zabiegów.

  • Kliknięcie w takie reklamy, linki, może więc skończyć się pobraniem złośliwego oprogramowania, a nawet utratą pieniędzy.

Oszustwa tego typu są coraz częstsze. Jakiś czas temu głośno było już o innym o filmie wykorzystującym wizerunek najpopularniejszego na świecie Youtubera. Fałszywy MrBeast oferował wtedy nowe iPhone'y za 2 dolary. Z kolei materiały z podobiznami gwiazd BBC Matthew Amroliwala i Sally Bundock oraz Elona Muska zostały wykorzystane do promowania rzekomej okazji inwestycyjnej.

Zdaniem eksperta

Kamil Sadkowski, analityk laboratorium antywirusowego ESET:

Oszustwa z wykorzystaniem wizerunku znanych osób to jeden wątek, a drugim jest możliwość fabrykowania nagrań z udziałem użytkowników prywatnych. Dostarczanie materiałów do nagrań deepfake to bowiem zagrożenie związanie z korzystaniem z mediów społecznościowych, o którym rzadko myślimy. Nie dotyczy ono tylko twórców internetowych i celebrytów. Wiele osób, przez lata publikowało materiały wideo, które obecnie mogą posłużyć do kradzieży naszego wizerunku i tworzenia fałszywych wypowiedzi. W ten sposób można oszukać np. naszych najbliższych, a nawet zniszczyć naszą reputację. Niebawem może okazać się, że szantaże czy oszustwa poprzez filmy będą równie częste jak tzw. kradzież „na wnuczka”.

Wnioski:

  • Bardzo ważne jest dokładne filtrowanie treści, jakie wrzucamy do internetu.
  • Druga istotna rzecz, to weryfikowanie informacji, nawet tych z udziałem osób, które znamy lub którym ufamy.
  • W walce z tego typu nadużyciami istotne jest aby jak najwięcej osób miało świadomość tego, że nie wszystkie materiały wideo w sieci są prawdziwe.
  • Dlatego warto rozmawiać o tym z dziećmi, osobami starszymi i każdym, kto nie ma wystarczającej wiedzy o świecie cyfrowym.
  • Jeśli jakichś materiał wideo, audio, zdjęcie, czy wiadomości w komunikatorze lub e-mailu - także od osób nam znanych - wzbudzają jakiekolwiek wątpliwości przede wszystkim nie klikaj w podane tam linki.
  • Jeśli dotyczy to osoby nam znanej warto skontaktować się z nią za pomocą innego kanału, aby potwierdzić, czy jest świadoma treści, które wysyła.

 

Treść i foto w oparciu o materiał prasowy ESET


Aktualności | Porady | Gościnnie | Katalog
Bukmacherzy | Sprawdź auto | Praca
biurowirtualnewarszawa.pl wirtualne biura w Śródmieściu Warszawy


Artykuł może w treści zawierać linki partnerów biznesowych
i afiliacyjne, dzięki którym serwis dostarcza darmowe treści.

              *              



Ostatnie artykuły:







fot. Freepik



fot. Freepik



fot. Freepik