Apple Facebook Google Microsoft badania bezpieczeństwo patronat DI prawa autorskie serwisy społecznościowe smartfony

Przyszłość praw autorskich w erze sztucznej inteligencji: wyzwania i perspektywy

31-07-2023, 10:48

Stale rosnący wzrost popularności aplikacji opartych na sztucznej inteligencji, takich jak ChatGPT, stanowi spore wyzwanie w kontekście regulacji prawnych. Istnieje wiele zastosowań tej technologii, a jej imponujące możliwości rodzą ważne pytania dotyczące własności treści, a także odpowiedzialności za ewentualne nadużycia.

robot sprzątający

reklama


Przyszłość praw autorskich w erze sztucznej inteligencji: wyzwania i perspektywy

Aplikacje oparte na sztucznej inteligencji (ang. Artificial Intelligence - AI) zyskały ogromną popularność wśród twórców treści na całym świecie. Modele takie, jak ChatGPT lub mniej znane Dall-E czy Midjourney, powoli stają się narzędziami wspomagającymi codzienną pracę. Dzięki nim można szybko tworzyć wiele rodzajów treści – od contentu na strony internetowe, po kampanie marketingowe, czy nawet kody źródłowe oprogramowania.

ChatGPT a prawa autorskie

ChatGPT może generować teksty, które będą podlegać ochronie prawnej. Istnieje zatem pytanie, kto w tym przypadku jest właścicielem praw autorskich do wygenerowanych treści: czy jest to twórca modelu AI, osoba, która dostarczyła dane, czy może użytkownik korzystający z systemu? Wiele osób deklaruje, że ChatGPT stworzył im np. opisy na stronę internetową czy fragment pracy informatycznej. Czy takiemu programowi przysługują zatem prawa autorskie?

Polskie prawo autorskie mówi o tym, że chronione jest wszystko, co jest przejawem działalności twórczej, przy czym utwór musi być stworzony przez twórcę. W polskim prawie takim twórcą może być tylko człowiek. Możemy założyć więc, że jeśli po otrzymaniu przez ChatGPT zapytania uzyskamy odpowiedź i przerobimy te dane w taki sposób, aby ostateczny efekt mógł być uznany za utwór w rozumieniu prawa, to wówczas użytkownik Chatu będzie twórcą i to jemu będą przysługiwały prawa autorskie do zmodyfikowanego oryginału pochodzącego od sztucznej inteligencji.

Zgodnie z prawem autorskim, aby coś było objęte ochroną prawną, musi być wytworzone przez człowieka. Tymczasem w przypadku AI, ten twórca pojawia się jedynie w momencie wpisania zapytania, ale nie jest już obecny na etapie otrzymanych wyników.

Obecnie to, co generuje system sztucznej inteligencji nie jest w żaden sposób w Polsce uregulowane prawnie. Dlatego ogromnym wyzwaniem będzie stworzenie zmian w obecnych zapisach, a przede wszystkim udzielenie odpowiedzi: kto jest faktycznym twórcą powstałego utworu? Jeśli to zostanie sprecyzowane, wówczas uregulowanie pozostałych zasad będzie o wiele łatwiejsze.

Sztuczna inteligencja a kwestie nadużyć

Kolejnym aspektem jest odpowiedzialność za wygenerowane treści. Jeśli ChatGPT zostanie użyty do wytworzenia np. treści zniesławiających lub obraźliwych – na kogo wówczas spadnie odpowiedzialność prawna? Czy to użytkownik, który korzysta z AI, ponosi odpowiedzialność za treści wygenerowane przez system czy może twórca samego modelu AI?

W tym kontekście kluczowy jest rozwój narzędzi i algorytmów, które pomogą w identyfikacji i filtrowaniu treści niezgodnych z prawem lub obraźliwych. Konieczne jest inwestowanie w badania i rozwój technologii, które będą w stanie skutecznie wykrywać i ograniczać potencjalne szkody wynikające z wykorzystania ChatGPT i innych systemów opartych na sztucznej inteligencji.

Jednak w tej chwili to właśnie na użytkownikach spoczywa obowiązek upewnienia się, że sposób, w jaki korzystają z tych treści, nie narusza żadnych przepisów.

Po pierwsze każda jednostka, która może, chce i widzi ryzyka związane z korzystaniem z systemów AI, powinna to na własny wewnętrzny użytek uregulować w sposób odpowiedni. W firmach mogą być to np. wewnętrzne regulacje systemów AI.

Drugim aspektem jest mocna edukacja – szkolenia, nie tylko te związane z wykorzystaniem ChatGPT czy innych systemów AI, ale też te dotyczące poufności danych osobowych, czy tajemnicy przedsiębiorstwa. Regulacje prawne to podstawa, jednak świadomość ludzi dotycząca zagrożeń spowodowanych zbyt daleko idącym zaufaniem do tego, co nam proponuje Chat czy inne narzędzie oparte na AI jest kluczowa, aby wszystko mogło działać poprawnie.

Jeśli tego typu regulacje nie zostaną wdrożone, praktycznie każda organizacja będzie np. musiała podejmować indywidualne działania prawne mające na celu wykazanie, że jest właścicielem prac wykorzystywanych przez sztuczną inteligencję. Wyraźne spisanie tych „zasad” nie dotyczy tylko przedsiębiorstw, ale również państw. Jeśli rządy nie podejmą konkretnych działań regulacyjnych, istnieje zagrożenie, że wszystkie materiały chronione prawem autorskim będą mogły być wykorzystywane przez innych bez zgody pierwotnego autora.

Jak widać, wykorzystanie ChatGPT i sztucznej inteligencji w kontekście praw autorskich stanowi ogromne wyzwanie, które wymaga uwagi i regulacji. Istnieje potrzeba opracowania odpowiednich ram prawnych dla każdego kraju, które będą chronić prawa autorskie, określać odpowiedzialność za wygenerowane treści oraz promować transparentność i odpowiedzialne wykorzystanie tych technologii.

Konrad Gierula, Regional Legal Counsel Central Europe, Luxoft

Foto: materiały prasowe


Aktualności | Porady | Gościnnie | Katalog
Bukmacherzy | Sprawdź auto | Praca
biurowirtualnewarszawa.pl wirtualne biura w Śródmieściu Warszawy


Artykuł może w treści zawierać linki partnerów biznesowych
i afiliacyjne, dzięki którym serwis dostarcza darmowe treści.

              *