Urząd Ochrony Danych Osobowych odnotował w 2025 roku prawie 13 tysięcy skarg - to wzrost o 61 proc. w porównaniu z rokiem poprzednim. Prezes UODO Mirosław Wróblewski ostrzega, że sprawy związane z nowymi technologiami, zwłaszcza deepfake'ami, wymykają się obecnym przepisom. Polska wciąż nie ma skutecznych narzędzi prawnych do walki z tym zjawiskiem.
W skrócie:

W 2025 roku do Urzędu Ochrony Danych Osobowych wpłynęło 12 986 skarg - to o 61 proc. więcej niż rok wcześniej (8056) i prawie dwukrotnie więcej niż w 2023 roku (6962).
"Należy się spodziewać wzrostu skarg związanych z wykorzystaniem nowych technologii. Widzimy to już obecnie. Co więcej, wpływa do nas więcej skarg bardzo skomplikowanych, dotyczących zastosowania takich nowych technologii, które nawet nie do końca są rozpoznane" - mówi Mirosław Wróblewski, prezes UODO.
Urząd nałożył w 2025 roku 32 kary pieniężne o łącznej wartości 64,4 mln zł - to ponad czterokrotnie więcej niż rok wcześniej (13,9 mln zł). Wzrosła też liczba zawiadomień do prokuratury - z 1 w 2024 roku do 7 w 2025 roku.
Sprawa, która obnażyła luki w polskim prawie, dotyczyła uczennicy, której wizerunek wykorzystano do stworzenia nagiego zdjęcia. Materiał został rozkolportowany w szkole i wśród znajomych. Prezes UODO zawiadomił policję o możliwości popełnienia przestępstwa, ale prokuratura umorzyła sprawę.
"To sprawa bardzo krzywdząca dla tej dziewczyny. Teoretyczne rozważania, że istnieją przepisy, które pozwalają na ściganie takich niegodnych zachowań, dowodzą tego, że potrzebne są tego typu rozwiązania" - mówi Mirosław Wróblewski.
Prokuratura uznała, że zdjęcie nie zostało pozyskane z chronionego zbioru danych, a jego przerobienie nie stanowi przetwarzania danych osobowych. Dopiero po interwencji u Prokuratora Generalnego sprawę ponownie podjęto w styczniu 2026 roku.
Globalnie problem narasta - według raportu WeProtect "Global Threat Assessment 2025", system CyberTipline odnotował między 2023 a 2024 rokiem wzrost o 1325 proc. zgłoszeń związanych z generatywną sztuczną inteligencją.
W Polsce deepfake'i pojawiły się już w kampaniach wyborczych, co pokazuje skalę problemu.
Włochy wprowadziły nowelizację ustawy karnej, która definiuje przestępstwo polegające na nielegalnym rozpowszechnianiu sfałszowanych lub zmodyfikowanych treści cyfrowych wygenerowanych z wykorzystaniem AI. Określono też odpowiedzialność cywilną i karną za te nadużycia.
Francja współpracuje z Komisją Europejską nad regulacjami dotyczącymi deepfake'ów. W styczniu 2026 roku KE wszczęła postępowanie przeciwko platformie X w sprawie chatbota Grok, który generował materiały o charakterze seksualnym, w tym potencjalnie przedstawiające wykorzystywanie dzieci.
Według UODO szansą na zmianę w Polsce jest ponowne podjęcie prac nad wdrożeniem unijnego Aktu o usługach cyfrowych (DSA), po niedawnym wecie prezydenta. Chodzi o systemowe uregulowanie kwestii związanych z przeciwdziałaniem i ochroną obywateli przed negatywnymi skutkami technologii.
Z badania UODO "Raport Strategiczny - Badanie potrzeb organizacji w zakresie wykorzystania sztucznej inteligencji i ochrony danych osobowych" wynika, że 41 proc. organizacji uważa, że opracowywanie AI nie wiąże się u nich z przetwarzaniem danych osobowych lub nie potrafią ocenić tej kwestii.
Największe luki występują w podmiotach, które tradycyjnie przetwarzają dużą ilość danych osobowych:
"Bardzo istotnym zagrożeniem ze strony sztucznej inteligencji jest to, że wiele z systemów zostało wytrenowanych na podstawie analizy danych, które wcześniej wprowadziliśmy do sieci internetowej. Nie spodziewaliśmy się tego, że będą one potem wykorzystane do innych celów" - ostrzega prezes UODO.
Źródło: UODO, Newseria, prawo.pl, demagog.org.pl
Foto: Freepik
Artykuł może zawierać linki partnerów, umożliwiające rozwój serwisu i dostarczanie darmowych treści.
Deweloperzy prognozują wzrost sprzedaży mieszkań o 5-15 proc. w 2026 roku
|
|
|
|
|
|
|
|
Stopka:
© 1998-2026 Dziennik Internautów Sp. z o.o.