Apple Facebook Google Microsoft badania bezpieczeństwo patronat DI prawa autorskie serwisy społecznościowe smartfony

AI pomaga hakerom w cyberatakach - przestrzegają eksperci

12-01-2023, 18:12

Pod koniec 2022 roku eksperci Check Point Research potwierdzili, że sztuczna inteligencja ChatGPT jest w stanie wesprzeć cyberprzestepców w planowaniu i realizowaniu kampanii hakerskich. W 2023 roku oficjalnie potwierdzili pierwsze przypadki wykorzystania ChatGPT do tworzenia złośliwych narzędzi. Na darknetowych forach hakerskich cyberprzestępcy dzielą się już informacjami w jaki sposób wykorzystują powszechnie dostępne AI do realizacji swoich celów.

robot sprzątający

reklama


Cyberprzestępcy coraz częściej korzystają z narzędzi opartych na AI, takich jak GPT-3, do automatycznego tworzenia oszukańczych wiadomości – raportują na swoim blogu analitycy Check Point Research. Sztuczna inteligencja jest szczególnie przydatna w atakach phishingowych, ponieważ pozwalają na automatyczne generowanie bardzo naturalnie brzmiących wiadomości, które trudno odróżnić od tych napisanych przez człowieka. Eksperci Check Pointa ostrzegają, że wykorzystywanie AI przez cyberprzestępców może prowadzić do jeszcze większego wzrostu liczby ataków phishingowych, a tym samym zwiększenia zagrożenia dla przedsiębiorstw i użytkowników indywidualnych.

Check Point Research ujawnił te informacje, aby ostrzec opinię publiczną o rosnącym zainteresowaniu cyberprzestępców ChatGPT skalowaniem złośliwej aktywności.

Pierwszy przypadek opisuje wątek o nazwie „ChatGPT – Korzyści ze złośliwego oprogramowania”. Twórca wpisu ujawnił, że eksperymentował z ChatGPT w celu odtworzenia szczepów złośliwego oprogramowania i technik opisanych w publikacjach badawczych i opisach dotyczących popularnego złośliwego oprogramowania. Post zdawał się pokazywać mniej technicznie uzdolnionym cyberprzestępcom, jak wykorzystać ChatGPT do złośliwych celów, z prawdziwymi przykładami, które mogą natychmiast wykorzystać.

Kilka dni wcześniej na forum hakerskim cyberprzestępca USDoD opublikował skrypt w języku Python, który, jak podkreślił, był „pierwszym skryptem, jaki kiedykolwiek stworzył”. Kiedy inny cyberprzestępca skomentował, że styl kodu przypomina kod openAI, USDoD potwierdził, że OpenAI pomogło mu dokończyć skrypt. W kolejnym przypadku cyberprzestępca wskazywał, jak tworzyć skrypty Dark Web marketplace za pomocą ChatGPT. Główną rolą marketplace w nielegalnej, podziemnej gospodarce jest zapewnienie platformy do zautomatyzowanego handlu nielegalnymi lub skradzionymi towarami, takimi jak skradzione konta lub karty płatnicze, złośliwe oprogramowanie, a nawet narkotyki czy amunicja.

- W ostatnich tygodniach widzimy dowody na to, że hakerzy zaczęli używać ChatGPA do pisania złośliwego kodu. ChatGPT może przyspieszyć proces hakerów, dając im dobry punkt wyjścia. Sztuczna inteligencja może być używane zarówno do dobrych celów, aby pomóc programistom w pisaniu kodu, jak i celów złośliwych. Chociaż narzędzia, które analizujemy w tym raporcie, są dość proste, to tylko kwestia czasu, kiedy bardziej wyrafinowani cyberprzestępcy udoskonalą sposób, w jaki korzystają z narzędzi opartych na sztucznej inteligencji – mówi Sergey Shykevich, kierownik grupy ds. analizy zagrożeń w Check Point Software.

Cyberprzestępcy coraz częściej korzystają z narzędzi opartych na AI, takich jak GPT-3, do automatycznego tworzenia oszukańczych wiadomości – raportują na swoim blogu analitycy Check Point Research. Sztuczna inteligencja jest szczególnie przydatna w atakach phishingowych, ponieważ pozwalają na automatyczne generowanie bardzo naturalnie brzmiących wiadomości, które trudno odróżnić od tych napisanych przez człowieka. Eksperci Check Pointa ostrzegają, że wykorzystywanie AI przez cyberprzestępców może prowadzić do jeszcze większego wzrostu liczby ataków phishingowych, a tym samym zwiększenia zagrożenia dla przedsiębiorstw i użytkowników indywidualnych.

Check Point Research ujawnił te informacje, aby ostrzec opinię publiczną o rosnącym zainteresowaniu cyberprzestępców ChatGPT skalowaniem złośliwej aktywności. Pierwszy przypadek opisuje wątek o nazwie „ChatGPT – Korzyści ze złośliwego oprogramowania”. Twórca wpisu ujawnił, że eksperymentował z ChatGPT w celu odtworzenia szczepów złośliwego oprogramowania i technik opisanych w publikacjach badawczych i opisach dotyczących popularnego złośliwego oprogramowania. Post zdawał się pokazywać mniej technicznie uzdolnionym cyberprzestępcom, jak wykorzystać ChatGPT do złośliwych celów, z prawdziwymi przykładami, które mogą natychmiast wykorzystać.

Kilka dni wcześniej na forum hakerskim cyberprzestępca USDoD opublikował skrypt w języku Python, który, jak podkreślił, był „pierwszym skryptem, jaki kiedykolwiek stworzył”. Kiedy inny cyberprzestępca skomentował, że styl kodu przypomina kod openAI, USDoD potwierdził, że OpenAI pomogło mu dokończyć skrypt. W kolejnym przypadku cyberprzestępca wskazywał, jak tworzyć skrypty Dark Web marketplace za pomocą ChatGPT. Główną rolą marketplace w nielegalnej, podziemnej gospodarce jest zapewnienie platformy do zautomatyzowanego handlu nielegalnymi lub skradzionymi towarami, takimi jak skradzione konta lub karty płatnicze, złośliwe oprogramowanie, a nawet narkotyki czy amunicja.

- W ostatnich tygodniach widzimy dowody na to, że hakerzy zaczęli używać ChatGPA do pisania złośliwego kodu. ChatGPT może przyspieszyć proces hakerów, dając im dobry punkt wyjścia. Sztuczna inteligencja może być używane zarówno do dobrych celów, aby pomóc programistom w pisaniu kodu, jak i celów złośliwych. Chociaż narzędzia, które analizujemy w tym raporcie, są dość proste, to tylko kwestia czasu, kiedy bardziej wyrafinowani cyberprzestępcy udoskonalą sposób, w jaki korzystają z narzędzi opartych na sztucznej inteligencji – mówi Sergey Shykevich, kierownik grupy ds. analizy zagrożeń w Check Point Software.


Aktualności | Porady | Gościnnie | Katalog
Bukmacherzy | Sprawdź auto | Praca
biurowirtualnewarszawa.pl wirtualne biura w Śródmieściu Warszawy


Artykuł może w treści zawierać linki partnerów biznesowych
i afiliacyjne, dzięki którym serwis dostarcza darmowe treści.

              *              



Ostatnie artykuły:


fot. DALL-E



fot. DALL-E



fot. Freepik



fot. DALL-E



fot. DALL-E