Automatyzacja pod postacią inteligentnych maszyn wkracza w coraz to nowe obszary naszej codziennej działalności. Wyposażone w systemy sztucznej inteligencji (AI) urządzenia posiadają coraz więcej funkcji i są wdrażane w szeregu różnych obszarów. Najczęściej słyszy się o negatywnych aspektach ich obecności, m.in. związanych z redukcją miejsc pracy, ale istnieją jeszcze inne niepokojące skutki ich obecności.
Co zrobić w sytuacji, gdy te inteligentne maszyny zostaną wykorzystane przez cyberprzestępców? Sztuczna inteligencja jeszcze wzmocni złośliwe oprogramowanie, będzie wykorzystywać pozyskane dane do wysyłania e-maili z phishingiem, które będą wyglądać jak autentyczne wiadomości wysłane przez człowieka – ostrzegał w artykule opublikowanym na łamach portalu BBC szef ds. bezpieczeństwa cybernetycznego w Capgemini UK, Andy Powell.
Jakie jest prawdopodobieństwo takiego zagrożenia?
To nie jest teoretyczne zagrożenie, które może wydarzyć się w przyszłości. To realny problem. Inteligentne, złośliwe oprogramowanie, samodzielnie mutujące exploity lub automatycznie generowany i dynamicznie zmieniający się spam już od jakiegoś czasu istnieją.
Oczywiście, sztuczna inteligencja jest bardzo szerokim terminem, a możliwości najczęściej spotykanego dzisiaj złośliwego oprogramowania i narzędzi służących do cyberataków są bliższe inteligentnemu termostatowi niż komputerowi HAL 9000 z filmu 2001: Odyseja kosmiczna, ale trend jest wyraźnie widoczny.
Zachętą dla cyberprzestępców do sięgania po rozwiązania bazujące na sztucznej inteligencji jest fakt, że wykrywanie złośliwego oprogramowania jest powszechnie realizowane w oparciu o sygnatury. Dlatego złośliwy kod musi się zaadaptować i następnie ewoluować, aby skutecznie działać unikając wykrycia. Ponadto szkodliwe oprogramowanie może być znacznie bardziej efektywne, jeśli będzie miało możliwość podejmowania własnych decyzji i wyboru odpowiedniej broni w oparciu o rozpoznanie środowiska, w którym się znalazło.
Jak powinno zmienić się podejście do cyberbezpieczeństwa, by powstrzymać to zagrożenie?
Przede wszystkich trzeba wyjść poza metody wykrywania złośliwego oprogramowania w oparciu o sygnatury.
Eksperci firmy Balabit ostrzegają, że nie wystarczą już proste działania prewencyjne podejmowane przeciwko atakom, które już zdążyły ujrzeć światło dzienne. Specjaliście od bezpieczeństwa IT muszą zrobić dwie rzeczy:
Jakie jest bezpośrednie zagrożenie ze strony cyberprzestępców wykorzystujących sztuczną inteligencję?
Najtrudniejsza jest sytuacja, kiedy cyberprzestępcy zaczynają opracowywać metody, które starają się osłabiać i dezorientować algorytmy obronne AI. Problem znany jest w przestrzeni badawczej jako „adversarial machine learning” („przeciwne uczenie maszynowe”) i jest szczególnie trudnym wyzwaniem do pokonania. Sprawienie, by komputer „uczył się” w prawidłowy sposób nie jest łatwe: dane z prawdziwego życia są nieuporządkowane, a ataki stosunkowo rzadkie, co znacznie utrudnia pracę sztucznej inteligencji. Tworzenie algorytmów, które są odporne na działania podjęte przez inteligentnego napastnika, który celowo działa tak, by je zmylić, wymaga szczególnej ostrożności i wiedzy.
Aktualności
|
Porady
|
Gościnnie
|
Katalog
Bukmacherzy
|
Sprawdź auto
|
Praca
biurowirtualnewarszawa.pl wirtualne biura w Śródmieściu Warszawy
Artykuł może w treści zawierać linki partnerów biznesowych
i afiliacyjne, dzięki którym serwis dostarcza darmowe treści.
*