Czy faktycznie sztuczna inteligencja jest tak potężna, że za chwilę będzie sama w stanie zrobić niemal wszystko? Czy człowiek stanie się „elementem” zbędnym? W wielu wypadkach tak, jednak nadal nie do końca. Jest sporo obszarów, w których to ludzie są nadal nie do zastąpienia i jednym z nich jest cyberbezpieczeństwo.
reklama
Po fali entuzjazmu dla zastosowań automatycznych narzędzi w wielu sektorach gospodarki pojawiły się także wątpliwości co do ich bezpieczeństwa, jak i rzetelności. Coraz częściej padają również pytania czy sprawniejsze z dnia na dzień algorytmy nie zastąpią po prostu pracy człowieka.
Zdaniem ekspertów z HackerU Poland sztuczna inteligencja pozwoli usprawnić wiele zadań, choć do jej zastosowań należy podchodzić także z rozwagą i merytorycznym wsparciem. Zwłaszcza jeśli chodzi o bezpieczeństwo w sieci.
Rozwój modeli opartych o sztuczną inteligencję postępuje niemal geometrycznie. Jak zauważa w ubiegłorocznym raporcie firma konsultingowa McKinsey już w maju 2023 r. generatywna sztuczna inteligencja firmy Anthropic, Claude, była w stanie przetworzyć około 75 tys. słów na minutę, zatem mówimy o odpowiedniku przeciętnej powieści.
W takim tempie rozwoju, przy wykorzystaniu nowych procesorów oraz sprzętu umożliwiającego wykorzystanie tych rozwiązań, przełom staje się nieunikniony.
Człowiek nie da rady pracować z taką wydajnością i z taką prędkością.
Mimo wielu płynących korzyści pociągnie to za sobą również szereg zagrożeń i obaw.
W tym przypadku praca ludzi jest wręcz niemożliwa do zastąpienia, albowiem nieomylność sztucznej inteligencji to mit. Sztuczna inteligencja może pracę człowieka tylko usprawnić.
Wystarczy przyjrzeć się takim rozwiązaniom jak PentestGPT, czy WhiteRabbitNeo, który może działać w pełni lokalnie (czyli bez komunikacji z internetem). Działanie wyżej wymienionych modeli można opisać jako “wirtualnych cyberspecialistów”.
Rozwój sztucznej inteligencji postępuje, jednak nie oznacza to, że w obszarze zatrudnienia w cyberbezpieczeństwie człowiek ma się czego obawiać w najbliższej przyszłości.
W przyszłości na pewno pojawią się modele SI pomocne dla operatorów w SOC (Security Operations Center). Tam nie brakuje mozolnej pracy i zadań dla algorytmów.
Nadal jednak to analityk musi i będzie musiał zająć się ostateczną weryfikacją wszystkiego.
Nie ma zatem co obawiać się, iż firmy na tyle zaufają algorytmom, że oddadzą im całe swoje bezpieczeństwo. W efekcie będą wdrażane rozwiązania wspomagane SI, ale weryfikację poprawności jej działania nadal zajmą się pracownicy.
Wyzwaniem dla rynku pracy jest bardziej znalezienie specjalistów, którzy będą za to odpowiedzialni.
Wdrożenie nawet gotowego modelu SI bywa trudne, jest mnóstwo niuansów i zwykły pracownik IT raczej sobie z tym nie poradzi.
Nie mam obaw, że ekspert od cyberbezpieczeństwa straci pracę, bo czy jakakolwiek firma zaufałaby SI oddając jej całe swoje bezpieczeństwo? Nie pojawiłyby się obawy? Bardziej prawdopodobnym scenariuszem jest wdrożenie rozwiązań wspomaganych przez SI, przy stałej weryfikacji poprawności ich działania przez człowieka.
Jednak trudno w to uwierzyć, gdy informacje, które otrzymujemy nie są dla nas optymistyczne. Media kładą nacisk na zagrożenia, zwłaszcza dla pracowników wypieranych przez algorytmy, z drugiej nie brakuje hiperoptymistycznych przekazów, że w zasadzie sztuczna inteligencja wszystko za nas zrobi, a my będziemy tylko odpoczywać.
Czy faktycznie sztuczna inteligencja jest taka potężna, że za chwilę będzie sama w stanie zrobić niemal wszystko?
Z generowaniem grafik idzie jej świetnie, choć niedawna wpadka Uniwersytetu Gdańskiego ze studentem, który miał trzy ręce na stworzonej grafice pokazuje, że nie do końca.
Innym przykładem może być stworzenie logo marki. SI nie radzi sobie z takim zadaniem, dostajemy coś koniec końców i tak grafik edytuje w programie do grafiki.
Eksperci zauważają, że na tym właśnie polega problem. Zazwyczaj otrzymamy „mniej więcej to, o co nam chodziło”. SI wygeneruje obraz według wskazanego wzoru, ale algorytm może to widzieć zupełnie inaczej niż człowiek. A już, zwłaszcza jeśli chodzi o specjalistę w danej dziedzinie.
Ostatecznie faktycznie udawało się uzyskiwać kod gry, którą można było uruchomić bez poprawek.
Działała, wszystko było ok, był tylko jeden problem – to był szkic, a nie gotowa gra.
Nie istnieje chyba jeszcze model, który byłby w stanie stworzyć grę w pełni kompletną. Do tego właśnie trzeba programistów.
Widać zatem, że na razie specjaliści nie mają się raczej czego obawiać. Sztuczna inteligencja stwarza możliwości do ułatwienia wielu zadań zawodowych. Niemniej, póki co raczej ich nie zastąpi.
Marcin Bednarczyk, Cybersecurity Specialist HackerU Polska
Foto: vecstock, Freepik
Aktualności
|
Porady
|
Gościnnie
|
Katalog
Bukmacherzy
|
Sprawdź auto
|
Praca
biurowirtualnewarszawa.pl wirtualne biura w Śródmieściu Warszawy
Artykuł może w treści zawierać linki partnerów biznesowych
i afiliacyjne, dzięki którym serwis dostarcza darmowe treści.
*
|
|
|
|
|
|