Firma Palo Alto Networks informuje o rosnącym trendzie tworzenia przez cyberprzestępców złośliwych modeli AI. Modele te służą do generowania ataków i są coraz bardziej profesjonalne. Jak działają te niebezpieczne systemy i jakie niosą zagrożenia dla biznesu?
W skrócie:
Sztuczna inteligencja miała usprawniać pracę firm i automatyzować procesy. Tymczasem, jak wynika z najnowszej analizy Unit 42, jednostki badawczej Palo Alto Networks, staje się także narzędziem dla cyberprzestępców, którzy nie korzystają już wyłącznie z ogólnodostępnych modeli AI. Coraz częściej trenują własne, złośliwe modele językowe (LLM), zaprojektowane wyłącznie do prowadzenia ataków.
Najważniejszą kwestią jest profesjonalizacja tego zjawiska. Przestępcy tworzą środowiska przypominające legalne startupy AI, z własnymi marketplace’ami i usługami abonamentowymi. Ich modele nie mają barier bezpieczeństwa i mogą generować złośliwy kod, kampanie phishingowe dopasowane do odbiorcy czy analizować luki w zabezpieczeniach firm.
Złośliwe LLM-y są trenowane na danych z forów przestępczych, wycieków baz danych oraz kodów malware’u. Uczą się tego, co w legalnych systemach AI jest blokowane, np. pisania niebezpiecznego kodu czy tworzenia socjotechnicznych scenariuszy. Modele działają w prywatnych serwerach, co utrudnia ich monitorowanie i blokowanie.
Mechanizm działania polega na ciągłej adaptacji. Jeśli atak zostanie zablokowany, model przygotowuje zmodyfikowaną wersję, analizując odrzucone elementy. To pozwala na szybkie i skuteczne omijanie zabezpieczeń.
"Cyberataki stają się bardziej wiarygodne niż kiedykolwiek wcześniej" – Wojciech Gołębiowski, wiceprezes i dyrektor zarządzający Palo Alto Networks w Europie Środkowo-Wschodniej.
Modele przestępców działają w środowiskach niewidocznych z zewnątrz. Nie mają limitów bezpieczeństwa i nie zostawiają typowych śladów, co utrudnia wykrycie ataków. Wiele działań, które kiedyś wymagały ręcznej pracy, dziś można wygenerować jednym poleceniem.
Firmy muszą zmienić podejście do zagrożeń i stosować narzędzia oparte na AI, które działają z podobną szybkością i adaptacyjnością. To nowa generacja ataków, automatyczna i zdolna do nauki.
W 2023 roku wydano 149 foundation models, z czego 66% to open source. To zwiększa dostępność zaawansowanych modeli, które mogą być modyfikowane do celów przestępczych. Koszt uzyskania wydajności na poziomie GPT-3.5 spadł 280-krotnie między 2022 a 2024 rokiem, co obniża próg wejścia dla grup przestępczych.
W efekcie cyberprzestępcy mogą trenować i dostosowywać własne modele taniej i szybciej niż wcześniej, co zwiększa skalę zagrożeń.
Podsumowując, cyberprzestępcy korzystają z własnych modeli AI, co zwiększa skalę i skuteczność ataków. Obecnie trudno je wykryć tradycyjnymi metodami, co wymaga nowych rozwiązań opartych na sztucznej inteligencji.
Źródło: Palo Alto Networks
Artykuł może zawierać linki partnerów, umożliwiające rozwój serwisu i dostarczanie darmowych treści.
Nagroda dla silnika GRACE i cztery wyróżnienia w Konkursie Polski Produkt Przyszłości 2025
|
|
|
|
|
|
|
|
Stopka:
© 1998-2026 Dziennik Internautów Sp. z o.o. Wszelkie prawa zastrzeżone.