Apple Facebook Google Microsoft badania bezpieczeństwo patronat DI prawa autorskie serwisy społecznościowe smartfony

Zakażcie tworzenia robotów do zabijania! Hawking, Musk i inni poparli apel

28-07-2015, 09:11

W przyszłości roboty wojskowe mogą same decydować, czy zabić. Wybitni eksperci poważnie się tego obawiają. Podpisali oni list otwarty wzywający do porzucenia takich planów i zwracający uwagę na ich możliwe skutki.

Istnieją już robotyczne samochody, samoloty i łodzie. Podejmowano już próby z wyposażaniem takich pojazdów w broń. Już w roku 2012 prasa donosiła o wysoce autonomicznym dronie testowanym przez US Navy, a prasa z pewnością nie wie o wszystkich planach każdej armii. Inteligentna broń jest niewątpliwie tuż, tuż...

Musk, Wozniak i Hawking przeciwko inteligentnej broni

Swój głos w tej sprawie przedstawili eksperci od sztucznej inteligencji. Napisali oni list otwarty, który ma być ogłoszony przy okazji konferencji IJCAI w Buenos Aires. Pod listem podpisali się specjaliści od sztucznej inteligencji, tacy jak Stuart Russell czy Nils J. Nilsson. Wsparli ich wybitni eksperci z innych dziedzin nauki oraz ze świata biznesu, m.in. Stephen Hawking, Elon Musk i Steve Wozniak.

- Przedstawiono wiele argumentów za autonomiczną bronią i przeciw niej, przykładowo, że zastąpienie ludzkich żołnierzy maszynami jest dobre poprzez redukowanie ofiar po stronie ich posiadaczy, ale jest złe, bo skutkiem tego jest obniżenie progu przystąpienia do bitwy. Kluczowym pytaniem dla ludzkości jest to, czy zaczynać globalny wyścig zbrojeń sztucznej inteligencji (AI), czy powstrzymać go przed rozpoczęciem (...) Autonomiczna broń stanie się kałasznikowem jutra. W przeciwieństwie do broni nuklearnej nie wymaga drogich lub trudnych do zdobycia materiałów, więc może się stać wszechobecna i tania dla każdej znaczącej armii... - czytamy w liście otwartym.

Kadr z filmu
kadr z filmu "Terminator"

Autorzy listu porównują broń inteligentną do takich wynalazków jak proch strzelniczy albo broń nuklearna. Ich zdaniem taka broń może być szczególnie chętnie wykorzystywana do takich zdań jak zamachy albo selektywne zabijanie ludzi z określonych grup etnicznych. Zdaniem autorów listu sztuczna inteligencja może się przydać na polu walki, może je uczynić bezpieczniejszym, ale bez konieczności tworzenia inteligentnych narzędzi zabijania. 

- Tak jak większość chemików i biologów nie ma interesu w budowaniu broni chemicznej lub biologicznej, większość badaczy sztucznej inteligencji nie ma interesu w budowaniu broni AI - i nie chce, by inni plamili ten obszar, robiąc to, tworząc wielki publiczny sprzeciw wobec sztucznej inteligencji, który przysłoniłby możliwe korzyści społeczne - czytamy w liście. 

Maszyna zdecyduje o zabiciu?

Zapewne wiele osób rozumie, co naukowcy mają na myśli. Niestety wojskowi i niektórzy politycy nie dadzą przekonać się łatwo. Wielka Brytania dawała już do zrozumienia, że jest przeciwna wprowadzeniu międzynarodowego zakazu na robotów-morderców. Pisał o tym The Guardian w kwietniu tego roku. 

W tym miejscu należałoby zaznaczyć, że problem z robotami-mordercami nie dotyczy tylko poziomu zautomatyzowania maszyny. Istniejąca dzisiaj broń też może być w różnym stopniu "inteligentna", a jej techniczne wady mogą się przekładać na niepotrzebne ofiary. Ludzcy żołnierze również robią błędy i mogą się pomylić. Problem z robotami na polu walki dotyczy tego, kto podejmuje decyzję o ataku. Jeśli decyzja będzie podejmowana przez maszynę, jeśli maszyna będzie decydować o życiu lub śmierci, zostanie przekroczona istotna granica.

W październiku ubiegłego roku US Navy przedstawiła łodzie-drony, które mogą atakować niczym rój. Te łodzie potrafią rozpoznawać środowisko, wrogie jednostki i podejmować pewne decyzje. US Navy twierdziła, że tylko użycie broni zawsze musi być zainicjowane przez marynarza nadzorującego ich misję. Tu jeszcze nie przekroczono opisywanej granicy, ale było bardzo blisko. 

Niestety również w ubiegłym roku wyszło na jaw, że Stany Zjednoczone stworzyły system MonsterMind, którego zadaniem było automatyczne odpowiadanie na cyberatak. Oczywiście MonsterMind miał odpowiadać tylko cyberatakiem, więc nie był to jeszcze system zdolny do zainicjowania "prawdziwej" walki. Był to jednak dowód na to, że wojskowi potrafią przekroczyć tę istotną granicę ludzkiej kontroli.

Maszyna podejmuje decyzje szybciej, nigdy się nie męczy, jest zawsze gotowa, by odpowiedzieć. Tworzy to dla wojskowych nie lada pokusę, której skutków nie jesteśmy w stanie przewidzieć. Wcale nie chodzi o to, że w przyszłości może powstać system taki jak Skynet z "Terminatora". Może powstać coś, czego w ogóle sobie nie wyobrażamy i nawet jeśli to coś nie zniszczy całej ludzkości, nie mamy gwarancji, że przewidzimy wszystkie konsekwencje istnienia tego czegoś. 


Aktualności | Porady | Gościnnie | Katalog
Bukmacherzy | Sprawdź auto | Praca

              *