Prawo nie nadąża za rozwojem sztucznej inteligencji

18-02-2019, 10:35

SI w przyszłości może stanowić o przewadze gospodarczej poszczególnych krajów, zwłaszcza w kontekście rewolucji 4.0. Za technologią nie nadąża jednak prawo. Brakuje opracowanych zasad etycznych korzystania ze sztucznej inteligencji oraz odpowiedzialności za jej działanie.

Deloitte wskazuje, że przemysł 4.0 należy do sześciu megatrendów, które będą kształtowały globalną gospodarkę. Blisko połowa firm już zaczęła wdrażać automatyzację procesów przy wykorzystaniu robotów.

Wyzwania prawne związane z przemysłem 4.0 są wszędzie właściwie takie same i w Polsce nie różnią się one od innych krajów. Są to nowe tematy, na które prawo nie znajduje odpowiedzi. Można powiedzieć, że prawo nie nadąża za technologią. Bardzo dużo inicjatyw w tym zakresie pojawia się na poziomie UE i jest realizowanych w ramach jednolitego rynku cyfrowego.

Zmiany w prawie nie nadążają za cyfrową rewolucją, choć pierwsze przepisy weszły już w życie, przede wszystkim RODO czy ustawa o Krajowym Systemie Cyberbezpieczeństwa. Zdecydowano się na przygotowanie przepisów w zakresie najbardziej istotnych obszarów związanych z nowymi technologiami. Istotną kwestią są dane osobowe, nieosobowe i przepływ tych danych. To bardzo istotne w związku z internetem rzeczy, analityką big data i oczywiście sztuczną inteligencją.

RODO wprowadziło jednolity standard dla wszystkich podmiotów przetwarzających dane osobowe w związku z działalnością w UE. Ustawa o Krajowym Systemie Cyberbezpieczeństwa obejmuje zasięgiem operatorów usług kluczowych, którzy muszą zapewnić zgodność swojego działania nie tylko z przepisami w zakresie cyberbezpieczeństwa, lecz także z RODO i przepisami krajowymi w obszarze danych osobowych.

 

Czytaj także: RODO puka do drzwi. Akredytowany kurs inspektora ochrony danych (IOD). Recenzja oraz sprawdź zapisy na najbliższe akredytowane kursy IOD >>

 

Brakuje jednak rozwiązań, które dotyczyłyby szerokiego wykorzystywania sztucznej inteligencji. Tymczasem, jak wynika z badania SAS, Accenture Applied Intelligence, Intel i Forbes Insights, już ponad 70% organizacji na świecie prowadzi projekty związane z SI.

Rezolucja Parlamentu Europejskiego i komunikat Komisji Europejskiej „Sztuczna inteligencja dla Europy” kładą bardzo duży nacisk na rozwój sztucznej inteligencji w Europie. Podkreśla się, że Europa nie może zostać w tyle za Stanami Zjednoczonymi i Chinami, w związku z tym uruchamia się dodatkowe środki finansowe, mające służyć rozwojowi sztucznej inteligencji. Te tematy prawne są bardzo istotne, w szczególności w zakresie zasad etycznych korzystania ze sztucznej inteligencji oraz odpowiedzialności, ponieważ sztuczna inteligencja może stanowić bardzo niebezpieczne narzędzie.

Raport Digital Poland „Przegląd strategii rozwoju sztucznej inteligencji na świecie” podaje, że Chiny na rozwój AI w 2017 roku wydały 28 mld dol. W USA tylko na jawne badania nad SI rząd wydał w 2016 roku 1,2 mld dol., a dodatkowe 30 mld dol. stanowiły inwestycje sektora prywatnego. Pod względem sztucznej inteligencji Europa dopiero goni światowe potęgi. Unia Europejska zapowiada, że co roku na ten cel będzie trafiać 20 mld euro, ale większe wydatki na SI nie zastąpią jednak ram prawnych. Proponuje się różne rozwiązania, m.in. kwestię odpowiedzialności za działania sztucznej inteligencji na zasadzie winy w nadzorze. Należy pamiętać, że rozwiązania oparte o sztuczną inteligencję są bardzo specyficzne, nie można ich porównać do niczego, co do tej pory istniało. Użytkownik sam nie do końca ma wpływ na to, w jaki sposób ta sztuczna inteligencja zadziała, ale nawet sam twórca, producent nie może ich do końca przewidzieć.

Na możliwe zagrożenia wskazuje też raport „Złowrogie wykorzystanie sztucznej inteligencji” przygotowany przez przedstawicieli czternaście organizacji, m.in. Uniwersytet w Oksfordzie, Cambridge, czy organizacji OpenAI. Ryzykiem w rozwoju SI jest możliwość jej użycia w złej wierze – w sferze cyfrowej to np. kradzież danych i cyberataki, a w sferze politycznej np. do identyfikacji wrogów i ich eliminacji. Chociażby bot Microsoft w ciągu kilkunastu godzin obecności w mediach społecznościowych stał się...  rasistą i zwolennikiem Hitlera. Widać więc, jakie szkody może poczynić sztuczna inteligencja i jak trudno jest przypisać odpowiedzialność za jej działanie. Z jednej strony jest producent, twórca kodu, ale z drugiej strony użytkownik, który karmi to rozwiązanie oparte o sztuczną inteligencję pewnymi danymi i też może spowodować taki, a nie inny rozwój.

Autor: dr Agnieszka Besiekierska, szefowa Praktyki Digitalizacji Biznesu w Kancelarii Noerr


Źródło: NEWSERIA
  
znajdź w serwisie



RSS - Wywiad
Wywiad  
RSS - Interwencje
RSS - Porady
Porady  
RSS - Listy
Listy