Asystenci AI jako ukryte kanały dla malware - badacze testują nowe wektory ataków

Wczoraj, 16:35

Czy firmowy chatbot może nieświadomie przekazywać polecenia cyberprzestępców? Badacze Check Point Research wykazali w kontrolowanych testach, że Microsoft Copilot i Grok mogą posłużyć jako pośrednicy w komunikacji między malware a serwerami atakujących. Choć metoda nie została jeszcze zaobserwowana w realnych atakach, Microsoft już wprowadził zmiany w swoim produkcie.

ai cyberbezpieczenstwo

W skrócie:

  • Asystenci AI z funkcją przeglądania sieci mogą działać jako proxy C2
  • Testy objęły Microsoft Copilot i Grok w kontrolowanym środowisku
  • Microsoft potwierdził ustalenia i wdrożył zmiany w Copilot

Jak asystenci AI mogą przemycać komendy hakerów

 

Mechanizm opisany przez Check Point Research wykorzystuje fakt, że nowoczesne asystenty AI potrafią pobierać treści z zewnętrznych adresów URL. Zamiast łączyć się bezpośrednio z serwerem dowodzenia (C2), złośliwe oprogramowanie mogłoby ukrywać tę komunikację w pozornie niewinnych zapytaniach do chatbota - prośbach o podsumowanie strony czy sprawdzenie linku.

 

"W miarę jak AI coraz mocniej wchodzi do codziennych procesów biznesowych, zaczyna też być wykorzystywana w działaniach atakujących. Dziś cyberprzestępcy nie muszą budować skomplikowanej infrastruktury - często wystarczy im dostęp do powszechnie zaufanych usług AI" - mówi Eli Smadja, szef działu badań w Check Point Research.

 

Kluczowe jest to, że ruch do usług AI w wielu firmach traktowany jest jako zaufany i nie podlega szczegółowej inspekcji. Złośliwa komunikacja mogłaby więc wtopić się w normalny ruch sieciowy.

Czy to realne zagrożenie czy tylko teoria

Badacze podkreślają istotne zastrzeżenie - nie zaobserwowano jeszcze wykorzystania tej metody w rzeczywistych kampaniach. To badanie wyprzedzające, mające ostrzec przed potencjalnym trendem.

Według raportu Malwarebytes, w 2025 roku cyberprzestępczość rzeczywiście zaczęła przesuwać się w kierunku ataków napędzanych przez AI - od deepfake'ów po autonomiczne ataki ransomware. Ataki ransomware wzrosły o 8 proc. rok do roku, a szczep Akira odpowiadał za 37 proc. wykryć.

Microsoft zareagował na zgłoszenie Check Point i według informacji z oficjalnego bloga firmy w styczniu 2026 zintegrował Microsoft Purview z centrum administracyjnym, wzmacniając kontrolę bezpieczeństwa nad Copilotem.

Jak firmy powinny się przygotować

Eksperci rekomendują zmianę podejścia do ruchu związanego z AI:

  • Monitoruj ruch do usług AI tak samo jak inne kanały wysokiego ryzyka
  • Wprowadź rygorystyczne zasady korzystania z funkcji przeglądania sieci w asystentach AI
  • Wdrażaj zabezpieczenia analizujące kontekst zapytań do AI
  • Regularnie audytuj, które narzędzia AI mają dostęp do internetu

Jak podkreślają specjaliści od monitoringu, kluczowa jest transparentność wobec pracowników co do zakresu i celów monitorowania ruchu sieciowego.

Warto zapamiętać

  • Zaufane usługi AI mogą teoretycznie posłużyć jako wektor ataku - to zmienia model zagrożeń
  • Ruch do chatbotów firmowych wymaga takiej samej uwagi jak inne kanały komunikacji
  • Brak realnych ataków tą metodą nie oznacza, że nie pojawią się w przyszłości

Źródło: Check Point Research, Microsoft, Malwarebytes

 


 

Foto: Freepik AI



Artykuł może zawierać linki partnerów, umożliwiające rozwój serwisu i dostarczanie darmowych treści.

Ostatnie artykuły:

fot. DCStudio



fot. t-mobile






fot. Gemini



fot. Freepik