AI Act w HR od sierpnia 2026 - kary do 35 mln euro za naruszenia

Wczoraj, 16:35

Europejskie rozporządzenie o sztucznej inteligencji wejdzie w życie 2 sierpnia 2026 roku, nakładając na firmy obowiązek audytu systemów AI w rekrutacji i zarządzaniu pracownikami. Za najpoważniejsze naruszenia grozi kara do 35 mln euro lub 7 proc. globalnego obrotu - wyższe sankcje niż w przypadku RODO. Według danych branżowych 58 proc. polskich firm już wykorzystuje AI w procesach HR, ale tylko 17 proc. wdrożyło pełnoskalowe rozwiązania.

Systemy AI wspierające decyzje o zatrudnieniu zostały zakwalifikowane jako technologie wysokiego ryzyka, co oznacza konieczność spełnienia rygorystycznych wymogów dotyczących nadzoru człowieka, niedyskryminowania kandydatów oraz transparentności. Zakazane są praktyki takie jak analiza emocji, scoring społeczny czy rozpoznawanie twarzy w celach rekrutacyjnych.

AI Act w HR od sierpnia 2026 - kary do 35 mln euro za naruszenia

W skrócie:

  • Kary do 35 mln euro lub 7 proc. obrotu
  • 58 proc. polskich firm używa AI w HR
  • Obowiązkowy audyt systemów od sierpnia 2026

Kto musi przygotować się na nowe przepisy

AI Act dotyczy wszystkich organizacji wykorzystujących systemy sztucznej inteligencji w procesach HR na terenie Unii Europejskiej, niezależnie od wielkości firmy. Według danych Eurostatu, w 2024 roku 13,5 proc. firm w UE korzystało z rozwiązań AI, podczas gdy w Polsce wskaźnik ten wynosił zaledwie 5,9 proc. Duże polskie przedsiębiorstwa deklarują wykorzystanie AI w HR na poziomie 52 proc., ale małe firmy pozostają w tyle z wynikiem poniżej 5 proc.

Rozporządzenie wprowadza podział systemów AI według stopnia ryzyka. Narzędzia HR wykorzystywane do selekcji CV, monitorowania wydajności czy podejmowania decyzji o awansach trafiły do kategorii wysokiego ryzyka, co wiąże się z najsurowszymi wymogami compliance. Systemy te mogą bowiem znacząco wpłynąć na życie zawodowe i prawa podstawowe pracowników oraz kandydatów. Jak bowiem pokazują badania, ponad 60 proc. kandydatów pozytywnie ocenia AI w rekrutacji, ale teraz wymagana jest pełna zgodność z AI Act.

Wyjątek przewidziano dla rozwiązań, które "nie stwarzają znaczącego ryzyka szkody dla zdrowia, bezpieczeństwa lub praw podstawowych" i nie wpływają materialnie na wynik decyzji. W praktyce jednak większość narzędzi automatyzujących rekrutację lub ocenę pracowników będzie wymagała pełnej zgodności z AI Act.

Jakie konkretnie obowiązki nakłada AI Act

Firmy muszą przeprowadzić pełny audyt wykorzystywanych systemów AI, obejmujący inwentaryzację narzędzi, analizę dostawców, funkcjonalności oraz rodzaju przetwarzanych danych. Każde rozwiązanie wymaga formalnej oceny ryzyka w konkretnych obszarach działania oraz wdrożenia systemu zarządzania ryzykiem z cyklicznymi aktualizacjami.

Kluczowym wymogiem jest zapewnienie nadzoru człowieka nad działaniem systemów AI. Organizacje muszą wyznaczyć kompetentne osoby uprawnione do interwencji, modyfikacji lub odrzucenia decyzji algorytmów. Rola decyzyjna człowieka musi być formalnie ujęta w wewnętrznych procedurach - AI może jedynie wspierać, nie zastępować ludzkiego osądu.

Nowością jest również obowiązek transparentności. Kandydaci i pracownicy muszą być informowani o wykorzystaniu AI w procesie decyzyjnym oraz mieć dostęp do informacji, jakie czynniki wpłynęły na rekomendację systemu. Według ekspertów z kancelarii Taylor Wessing, wymóg ten może wymagać znaczących zmian w komunikacji z kandydatami.

Dokumentacja i zarządzanie danymi

Dostawcy systemów AI wysokiego ryzyka muszą prowadzić szczegółową dokumentację zarządzania ryzykiem oraz polityki zarządzania danymi. Obejmuje to m.in. opis metodologii działania algorytmów, procedury testowania pod kątem dyskryminacji oraz mechanizmy zgłaszania incydentów. Firmy powinny również nawiązać kontakt z dostawcami narzędzi AI i pozyskać pełną dokumentację techniczną najpóźniej do 2 sierpnia 2026 roku.

Ile kosztuje wdrożenie zgodności z AI Act

Koszt audytu i dostosowania systemów do wymogów AI Act zależy od złożoności organizacji i liczby wykorzystywanych narzędzi. Według szacunków branżowych wydatki mogą wynosić od kilku tysięcy do setek tysięcy euro, obejmując dokumentację, zarządzanie ryzykiem oraz szkolenia pracowników. Dla porównania, kary za nieprzestrzeganie przepisów mogą sięgnąć 35 mln euro lub 7 proc. globalnego obrotu - znacznie więcej niż maksymalne sankcje za naruszenie RODO (20 mln euro lub 4 proc. obrotu).

Firmy doradcze takie jak HR Contact, Deloitte, PwC czy KPMG oferują usługi audytu i wdrożenia zgodności z AI Act. Alternatywą są kancelarie prawne specjalizujące się w regulacjach AI, np. Hunton Andrews Kurth czy Taylor Wessing.

Organizacja WEC Europe udostępniła bezpłatny toolkit dla firm HR, zawierający wytyczne, szablony i listę kontrolną zgodności.

"Choć nowe regulacje zaczną obowiązywać dopiero w sierpniu 2026 roku, rozpoczęcie przygotowań dopiero wtedy będzie bardzo ryzykowne. Tylko audyt narzędzi AI przeprowadzony z odpowiednim wyprzedzeniem pozwoli firmom dostosować się do AI Act bez ryzyka operacyjnego paraliżu" - Katarzyna Szudy, HR Contact

Jak przygotować firmę do AI Act krok po kroku

Pierwszym krokiem jest mapowanie procesów HR, w których decyzje wspierane są przez AI - od rekrutacji przez oceny pracownicze po awanse i zwolnienia. Należy dokładnie przeanalizować rodzaj przetwarzanych danych osobowych oraz sposób, w jaki algorytmy wpływają na decyzje kadrowe.

Kolejny etap to opracowanie firmowej polityki wykorzystania AI, uwzględniającej zasady nadzoru ludzkiego, procedury bezpieczeństwa i zarządzania ryzykiem. Polityka powinna określać, kto w organizacji odpowiada za nadzór nad systemami AI oraz jakie są procedury interwencji w przypadku wykrycia błędów lub dyskryminacji.

Kluczowe jest również przeszkolenie pracowników - zarówno działów HR, jak i kadry zarządzającej - w zakresie odpowiedzialnego wykorzystania AI oraz wymogów prawnych. Według danych z badania ZielonaLinia.gov.pl, aż 19 proc. polskich pracodawców nie akceptuje wykorzystania AI na żadnym etapie rekrutacji, co wskazuje na potrzebę edukacji w tym obszarze.

Harmonogram wdrożenia

AI Act wchodzi w życie etapami. Od 2 lutego 2025 roku obowiązuje zakaz stosowania systemów AI uznanych za niedopuszczalne ryzyko. Od 2 sierpnia 2026 roku wchodzą w życie przepisy dotyczące systemów wysokiego ryzyka wprowadzanych na rynek po tej dacie. Od 2 sierpnia 2027 roku wymogi obejmą również systemy wysokiego ryzyka, które zostały wprowadzone na rynek wcześniej i wymagają dostosowania do nowych regulacji.

Warto zapamiętać:

  • Rozpocznij audyt systemów AI już teraz - 19 miesięcy to minimum na pełne wdrożenie
  • Wyznacz osoby odpowiedzialne za nadzór nad AI i ujmij ich rolę w procedurach
  • Przeszkol pracowników HR w zakresie transparentnej komunikacji o wykorzystaniu AI
  • Pozyskaj pełną dokumentację techniczną od dostawców narzędzi AI przed sierpniem 2026

AI Act to nie jednorazowy projekt, lecz stały proces podnoszenia jakości decyzji w HR. Firmy, które potraktują nowe przepisy jako szansę na uporządkowanie procesów i bardziej świadome wykorzystanie technologii, mogą zyskać przewagę konkurencyjną poprzez budowanie zaufania kandydatów i pracowników. Kluczem jest proaktywność - organizacje czekające do ostatniej chwili ryzykują nie tylko wysokie kary, ale również paraliż operacyjny w kluczowych procesach kadrowych.

Źródło: HR Contact, Eurostat, ZielonaLinia.gov.pl, Taylor Wessing, WEC Europe

 


 

Foto: Freepik



Artykuł może zawierać linki partnerów, umożliwiające rozwój serwisu i dostarczanie darmowych treści.

Ostatnie artykuły:


fot. Freepik



fot. nensuria







fot. Freepik