Od zarania cyber-dziejów naukowcom towarzyszyło odwieczne marzenie nauczenia maszyn myślenia i podejmowania decyzji w sposób, w jaki robią to ludzie. Jednak uczenie maszynowe to nic innego jak zespół matematycznych technik, które pozwalają przetwarzać dane, odkrywać wzorce i wyciągać wnioski. Wszystko po to, aby adekwatnie przewidywać przyszłe zdarzenia - w tym cyberataki.
reklama
Uczenie maszynowe oraz sztuczna inteligencja (AI - artificial intelligence) w jakimś stopniu wpłynęły na prawie każdą z branż - od produkcji, przez rolnictwo, po finanse. Jaki potencjał drzemie w tej technologii w kontekście bezpieczeństwa IT? Czy AI przekłada się na rzeczywisty wzrost cyberbezpieczeństwa? Odpowiedzi na te pytania poszukiwali autorzy raportu “Machine Learning i Cyberbezpieczeństwo”.
W okresie od 2017 do 2023 ruch w Internecie zwiększy się aż trzykrotnie - tak wynika z raportu Reinventing Cybersecurity with Artificial Intelligence firmy Capgemini. 61% organizacji szacuje, że nie będzie w stanie we właściwy sposób interpretować krytycznych zdarzeń bez wsparcia ze strony AI. 73% ankietowanych w jakimś zakresie już testuje sztuczną inteligencję w kontekście cyberbezpieczeństwa. 28% korzysta z rozwiązań, które posiadają wbudowane moduły, a 30% z własnych wypracowanych algorytmów. Pozostałe 42% w ciągu kolejnych dwunastu miesięcy zacznie wykorzystywać gotowe rozwiązania lub własne algorytmy.
Raport Machine Learning i Cyberbezpieczeństwo przybliża pięć kroków do wdrożenia AI w firmie. Pierwszym zadaniem jest przygotowanie zbioru danych dobrej jakości, w oparciu o które będzie można testować modele uczenia maszynowego. Badania pokazują jednak, że dla blisko połowy firm jest to największe wyzwanie podczas implementacji AI. Problemy pojawiają się także w trakcie integracji rozwiązania z infrastrukturą IT, wykorzystywanymi systemami danych oraz aplikacjami. Kolejnym wyzwaniem jest płynna aktualizacja danych, w oparciu o które pracują algorytmy.
Następnym krokiem jest dobór odpowiednich zbiorów use case. W tym zakresie warto rozważyć współpracę z zewnętrznymi platformami (np. Facebook Threat Exchange25 czy IBM X-Force Exchange26). Ważnym elementem wdrożenia AI jest również zatrudnienie odpowiednio wykwalifikowanych analityków.
Ogromną barierą rozwoju sztucznej inteligencji jest brak specjalistów z wiedzą z zakresu uczenia maszynowego. Firmy mają w zasadzie do dyspozycji dwie drogi - szkolenie własnych pracowników lub skorzystanie z zewnętrznych zespołów. Ostatnim krokiem w procesie jest wprowadzenie mechanizmów kontroli - zdefiniowania roli oraz zakresu obowiązków czy wdrożenie odpowiednich procesów monitorujących i naprawczych.
- Wdrożenie w organizacji AI pochłania znacznie więcej zasobów - ludzi oraz nakładów finansowych - niż rozwiązania tradycyjne. Nie da się ukryć, że produkty oparte na frameworkach AI należą także do tych kosztowniejszych - - mówi Karolina Dzierżyńska, redaktor Centrum Bezpieczeństwa w Xopero Software - Dla małych i średnich firm mogą więc okazać się nieosiągalne. Mniejsze podmioty mogą jednak skorzystać z rozwiązań udostępnianych w modelu SECaaS (security-as-a-service).
Wykorzystanie elementów sztucznej inteligencji w podstawowych produktach z branży cyberbezpieczeństwa, takich jak chociażby programy antywirusowe, powoduje więc, że są one dostępne dla każdego - małych firm, a nawet użytkowników domowych.
Podstawowym celem Machine Learning jest analiza ogromnych zbiorów danych i automatyzacja jak największej liczby procesów. Coraz częściej sięga się po nią przy projektowaniu systemów bezpieczeństwa IT. Monitorowanie zachowań użytkowników w sieci, analiza parametrów z urządzeń sieciowych i logów użytkowników, analiza behawioralna czy wykorzystanie danych biometrycznych - to tylko kilka aspektów jej wykorzystania.
System bezpieczeństwa oparty na machine learning musi więc ustalić czy każdy plik przesyłany firmową siecią nie zawiera malware, każda próba logowania nie jest wynikiem wykradzenia danych uwierzytelniających, a każdy mail nie jest wiadomością malspam. Ponadto zweryfikuje czy każde żądanie nie jest próbą ataku denial-of-service (DoS) albo próbą kontaktu z serwerami C&C.
Sztuczna inteligencja może również zostać wykorzystana do detekcji anomalii czy analizy malware. Jak? Algorytmy uczenia maszynowego mogą dokonać dynamicznej analizy na podstawie podobieństw między dwoma lub więcej obiektami. Takie badanie omija błędy typowe dla dopasowań statycznych i uwzględnia np. rozwój malware w czasie.
Należy pamiętać, że sztuczna inteligencja i uczenie maszynowe mogą zostać wykorzystane po drugiej stronie barykady i posłużyć przestępcom do przeprowadzenia ataków opartych o szczegółową analizę danych. Na szczęście, na razie nie są one powszechnie stosowane. Przestępcy wolą bowiem sprawdzone rozwiązania, które przyniosą im zyski szybko i tanio. Niewykluczone jednak, że wraz z upowszechnianiem się uczenia maszynowego i sztucznej inteligencji, wkrótce usłyszymy o spektakularnych atakach z ich wykorzystaniem.
Więcej w raporcie: Machine Learning i Cyberbezpieczeństwo
Aktualności
|
Porady
|
Gościnnie
|
Katalog
Bukmacherzy
|
Sprawdź auto
|
Praca
biurowirtualnewarszawa.pl wirtualne biura w Śródmieściu Warszawy
Artykuł może w treści zawierać linki partnerów biznesowych
i afiliacyjne, dzięki którym serwis dostarcza darmowe treści.
*