W dyskusji o autonomicznej broni pojawił się nowy głos. Ciekawy, bo to wspólne stanowisko dwóch stron sporu, czy roboty same mogą decydować o zabijaniu
Od lat narasta dyskusja o autonomicznej broni. Jej przeciwnicy twierdzą, że urządzenia wyposażone w sztuczną inteligencję, które mogą samodzielnie zabijać, mogą okazać się niebezpieczne i powinny być zakazane. Inni twierdzą, że nie powinno się ich zakazywać zbyt pochopnie, bo sztuczna inteligencja może w czasie konfliktu ograniczyć liczbę przypadkowych ofiar wśród ludności cywilnej. Nie są to czysto teoretyczne rozważania, bowiem prace nad takimi technologiami są już bardzo zaawansowane.
W marcu w Genewie odbyła się konferencja delegatów ONZ i dyskusja o zakazie autonomicznych broni. Takie zgromadzenie (i dyskusja) odbywa się bezowocnie każdego roku od pięciu lat. Większość krajów popiera całkowity zakaz użycia takich broni oraz ich testów. Takiego zdania jest też sekretarz generalny organizacji António Guterres, który twierdzi, że autonomiczne maszyny zdolne do zabijania ludzi są „moralnie odrażające”. Jednak przeciwko zakazowi są światowe mocarstwa i jednocześnie najwięksi producenci broni: Australia, Izrael, Rosja, Stany Zjednoczone czy Wielka Brytania (Chiny są przeciw użyciu tej technologii, ale za możliwością badań).
Nad zasadnością zakazu takich broni nie przestają się spierać także naukowcy: filozofowie, etycy oraz specjaliści od robotyki i sztucznej inteligencji. Jak donosi IEEE (amerykańska organizacja zrzeszająca inżynierów) na łamach „Spectrum”, udało im się osiągnąć wspólne stanowisko*.
Wędzidło dla robota
Uzgodnili, że potrzebne jest moratorium na badania, rozwój i wykorzystanie autonomicznych systemów broni zdolnych do namierzania celów ludzkich. Z pewnymi wyjątkami. Zaliczono do nich systemy obronne zainstalowane na stałe w celu obrony baz lub instalacji wojskowych oraz systemy obronne odpowiadające na ostrzał w sposób ograniczony i proporcjonalny w celu bezpośredniej i natychmiastowej obrony ludzi. Wyjątkiem mają być też (tu autorzy nie byli jednomyślni) autonomiczne systemy poniżej pewnej wagi ładunku wybuchowego służące do unieszkodliwiania broni ręcznej, ale tylko jeśli zapewniają ochronę cywilów i są zgodne z międzynarodowym prawem humanitarnym.
Moratorium nie obejmowałoby broni autonomicznej skierowanej przeciw pojazdom, wyposażeniu oraz broni nieśmiercionośnych skierowanych przeciwko ludziom.
Należy przyjąć, że to człowiek, a nie maszyna jest zawsze odpowiedzialny moralnie i prawnie za działania militarne i przestrzeganie międzynarodowego prawa humanitarnego
Jak sprawdzić, czy moratorium jest przestrzegane? Będzie to skomplikowane, ale możliwe. Naukowcy piszą, że potrzebne byłoby porozumienie analogiczne do konwencji w sprawie broni chemicznej. Nakłada ono na wytwórców niektórych produktów obowiązek zgłaszania podejrzanych zakupów – w tym wypadku podejrzanym towarem byłyby drony i roboty, które można przystosować do zabijania ludzi bez nadzoru człowieka.
By móc to zapewnić, trzeba by także uniemożliwić przerabianie cywilnych dronów i robotów na śmiercionośne, na przykład uniemożliwiając modyfikacje techniczne lub zmiany w ich oprogramowaniu. Należałoby też rejestrować tożsamość operatorów takiego śmiercionośnego sprzętu i przebieg jego użytkowania w sposób uniemożliwiający modyfikację zapisów. Wszystkie te ograniczenia winny być możliwe do sprawdzenia przez odpowiednie instytucje, ale oczywiście niedostępne dla przeciwnika, czyli zapisy powinny być szyfrowane.
Przede wszystkim jednak systemy broni możliwe do przerobienia na autonomiczne powinny być projektowane z uwzględnieniem tego, że muszą posiadać formalne dowody odpowiednich zabezpieczeń – przed tym, żeby nie rozpocząć ataku na ludzi bez autoryzacji przez drugiego człowieka. Systemy umożliwiające taką autoryzację powinny zaś być sterowane z zewnątrz urządzeń i odizolowane od ich wewnętrznych obwodów sterowania.
Odpowiada człowiek
Autorzy dokumentu uzgodnili też, że należy przyjąć, że to człowiek, a nie maszyna jest zawsze odpowiedzialny moralnie i prawnie za działania militarne i przestrzeganie międzynarodowego prawa humanitarnego. Ludzie odpowiedzialni za zainicjowanie ataku przy użyciu autonomicznej broni muszą mieć wiedzę na temat jej budowy, działania, celów, otoczenia, a także kontekstu, by móc ocenić, czy podjęcie ataku jest zgodne z prawem. To wymaga uwzględnienia kwestii autonomicznych systemów broni w kształceniu wojskowym.
Istotne będzie też podjęcie działań ograniczających ryzyko wybuchu konfliktu przez przypadek. Autonomiczne systemy broni nie powinny nigdy otwierać ognia jako pierwsze. Trzeba też jakoś odróżnić ćwiczenia, patrole czy inne wojskowe działania pokojowe od ataków.
Dokument wspomina o konieczności ograniczenia rozprzestrzeniania (podobne traktaty obowiązują w przypadku broni biologicznej, chemicznej i jądrowej).
Autorzy podkreślają, że brak uregulowań w tym zakresie (czyli sytuacja obecna) też jest niebezpieczny, bez nich każda armia może wysłać drony do ataku na wroga, nie przejmując się konsekwencjami prawa międzynarodowego. Stanie się tak zapewne prędzej niż później. Autonomiczna broń zazwyczaj kojarzy się z człekokształtnymi robotami, ale najłatwiej jest w broń wyposażyć urządzenia, które są już dawno w użytku – czyli drony. Być może już na początku przyszłego roku nad Syrię autonomiczne drony wyposażone w broń wyśle Turcja.
*Dokument opracowali:
- Ronald Arkin, szef Mobile Robot Laboratory, Georgia Institute of Technology
- Leslie Kaelbling, współprowadząca Learning and Intelligent Systems Group, Massachusetts Institute of Technology
- Stuart Russell, profesor informatyki i inżynierii University of California, Berkeley
- Dorsa Sadigh, profesor informatyki i inżynierii elektrycznej Stanford University
- Paul Scharre, szef Technology and National Security Program, Center for a New American Security
- Bart Selman, profesor informatyki, Cornell University
- Toby Walsh, profesor sztucznej inteligencji, University of New South Wales