71% europejskich instytucji finansowych stawia na wykrywanie nadużyć jako główne zastosowanie agentowej sztucznej inteligencji - wynika z badania Red Hat i FStech wśród 101 decydentów sektora finansowego. Paradoks? Jednocześnie ponad 60% tych samych firm nie ma formalnej strategii suwerenności danych. Sektor przetwarzający najbardziej wrażliwe informacje na świecie wdraża najnowocześniejszą technologię bez planu kontroli nad tym, gdzie i jak te informacje pracują.
Zacznijmy od tego, czym jest agentowa AI (agentic AI), bo termin ten bywa mylony z tradycyjnymi chatbotami. To systemy zdolne do autonomicznego planowania i realizacji wieloetapowych zadań bez interwencji człowieka przy każdym kroku.
W praktyce bankowej - agent AI, który samodzielnie przeprowadza pełny proces weryfikacji klienta (KYC): od pobrania danych, przez screening sankcji, po raport dla nadzorcy. Różnica jest jak między kalkulatorem a księgowym, który sam wie, co policzyć.
Według badania Red Hat i FStech 47% europejskich instytucji finansowych jest na etapie pilotażu lub aktywnego wdrożenia agentowej AI. Kolejne 36% nie planuje na razie jej wprowadzenia - ale nie z braku zainteresowania.
Jak komentuje Lubomir Stojek, Country Manager Red Hat w Polsce, ten podział odzwierciedla raczej ostrożne podejście do implementacji niż odrzucenie samej technologii.
Rozwój agentowych systemów jest ściśle zależny od możliwości zapewnienia kontroli nad nimi i dostosowania się do regulacji branżowych - mówi Lubomir Stojek, Country Manager Red Hat w Polsce.

Hierarchia zastosowań agentowej AI w finansach wygląda jednoznacznie: wykrywanie nadużyć (71%), monitorowanie zgodności regulacyjnej (66%) i procesy KYC/AML (61%). Rozwiązania skierowane do klientów pojawiają się rzadziej - AI rozwija się tam, gdzie tolerancja na ryzyko jest najniższa.
| Zastosowanie agentowej AI | Odsetek firm | Charakter |
|---|---|---|
| Wykrywanie nadużyć (fraud detection) | 71% | Wewnętrzne, compliance |
| Monitorowanie zgodności regulacyjnej | 66% | Wewnętrzne, compliance |
| KYC / AML | 61% | Wewnętrzne, compliance |
| Odporność operacyjna i ciągłość biznesowa | 34% | Strategiczne, priorytet 3-letni |
| Usługi z kontaktem z klientem (generatywna AI) | 43% | Zewnętrzne, perspektywa 3 lat |
Te liczby zyskują dramatyczny kontekst dzięki danym McKinsey z sierpnia 2025 roku. Według Interpolu sektor finansowy wykrywa zaledwie ok. 2% globalnych przepływów związanych z przestępczością finansową - mimo że wydatki na KYC/AML rosły nawet o 10% rocznie w rozwiniętych rynkach w latach 2015-2022.
Badanie wskazuje, że 72% respondentów obawia się niezgodności z lokalnymi przepisami, 55% boi się wycieków danych, a 51% widzi ryzyko w konfliktach regulacyjnych między jurysdykcjami.
Regulacyjne ramy są tutaj konkretne. EU AI Act od 2 lutego 2025 roku zakazał pewnych praktyk AI, a od 2 sierpnia 2026 nałożył pełne obowiązki na systemy wysokiego ryzyka.
Scoring kredytowy i biometryczna identyfikacja są klasyfikowane jako systemy wysokiego ryzyka (Annex III EU AI Act). Fraud detection jest wyłączony z tej kategorii przez Recital 58 – nie determinuje indywidualnych praw jednostki. Klasyfikacja systemów KYC/AML wymaga weryfikacji case by case.
Równolegle od 17 stycznia 2025 roku obowiązuje rozporządzenie DORA (Digital Operational Resilience Act), które zobowiązuje instytucje finansowe do zarządzania ryzykiem ICT i testowania odporności operacyjnej. DORA wprowadza nadzór UE nad krytycznymi dostawcami ICT - w tym dostawcami chmury, którzy spoza UE muszą posiadać europejski podmiot zależny. To wzmacnia argument o ograniczeniu zależności od globalnych dostawców chmury, na którą wskazuje 59% respondentów badania Red Hat.
73% badanych instytucji uznaje suwerenność danych za kluczowy lub ważny element strategii AI. Firmy coraz rzadziej myślą wyłącznie o fizycznej lokalizacji serwerów - pytanie dotyczy tego, kto może trenować modele AI na danych klientów i jakie wnioski dostawcy zewnętrzni mogą zachować po zakończeniu współpracy.
Badanie Economist Impact z grudnia 2025 roku potwierdza wagę tematu: ponad 92% respondentów z sektora finansowego uważa, że nieadekwatna odpowiedź na kwestię suwerenności danych prowadzi do uszczerbku reputacyjnego. Bank Anglii w raporcie z kwietnia 2025 dodaje, że koncentracja rynku dostawców AI stanowi ryzyko systemowe - awaria jednego dużego dostawcy chmury mogłaby uderzyć w wiele instytucji jednocześnie.
Mimo to ponad 60% badanych firm wciąż nie posiada formalnej strategii suwerenności danych. Bariery: wysokie koszty (64%) i brak kompetencji (58%). Problem z wymaganiami DORA w zakresie zarządzania ryzykiem dostawców ICT - czas na strategię się kończy, przepisy już obowiązują.
62% instytucji finansowych nadal bazuje na manualnej analizie incydentów bezpieczeństwa, co czwarty podmiot (26%) nie ma wyodrębnionego monitoringu AI, a tylko 43% wdrożyło zautomatyzowane procedury reagowania.
EU AI Act dla systemów wysokiego ryzyka wymaga wbudowanego automatycznego monitoringu - firmy z tą luką mogą być już w niezgodności z regulacjami obowiązującymi od sierpnia 2025.
Połowa badanych instytucji już wykorzystuje lub pilotuje rozwiązania open source AI, a kolejne 21% dostrzega ich potencjał. Red Hat - jako dostawca rozwiązań open source - ma oczywisty interes w promowaniu tej narracji, co warto brać pod uwagę. Niemniej organizacja FINOS (Fintech Open Source Foundation) niezależnie potwierdza, że open source AI daje instytucjom finansowym możliwość budowy rozwiązań dopasowanych do wymogów regulacyjnych bez uzależnienia od jednego dostawcy.
Warto jednak odnotować, że wcześniejsza edycja tego samego badania FStech/Red Hat wskazywała, że jedynie 15% instytucji posiadało kompleksową strategię AI uwzględniającą open source - tak duży skok może wynikać zarówno z realnej ewolucji rynku, jak i ze zmiany metodologii.
Agentowa AI (agentic AI) to systemy zdolne do autonomicznego planowania i realizacji wieloetapowych zadań bez interwencji człowieka przy każdym kroku. W praktyce bankowej oznacza to np. agenta AI, który samodzielnie przeprowadza pełny proces weryfikacji klienta KYC - od pobrania dokumentów po wygenerowanie raportu dla nadzorcy.
Dwie kluczowe to EU AI Act (obowiązki dla systemów wysokiego ryzyka od sierpnia 2025, kary do 35 mln euro) oraz DORA (zarządzanie ryzykiem ICT i nadzór nad dostawcami chmury, obowiązuje od stycznia 2025). Systemy wykrywania nadużyć i scoring kredytowy są klasyfikowane jako systemy wysokiego ryzyka w ramach AI Act.
Agentowa AI przetwarza dane klientów autonomicznie i w dużej skali. Brak kontroli nad tym, gdzie dane są przetwarzane, kto trenuje na nich modele i co dostawcy zachowują po zakończeniu współpracy, generuje ryzyko regulacyjne, reputacyjne i operacyjne. Według Economist Impact ponad 92% firm uważa, że zaniedbanie suwerenności danych prowadzi do uszczerbku reputacyjnego.
Źródła:
Foto: Freepik
Artykuł może zawierać linki partnerów, umożliwiające rozwój serwisu i dostarczanie darmowych treści.
Glovo skanowało dowody osobiste klientów - kara prawie 5,9 mln zł od UODO
© 1998-2026 Dziennik Internautów Sp. z o.o.