Departament Obrony USA przyjmuje nowe zasady etyczne dotyczące zastosowania sztucznej inteligencji w wojsku. Ma to pomóc amerykańskiej armii odzyskać wsparcie cywilów z branży technologicznej i wygrać wyścig zbrojeń

Nowe regulacje dotyczące etyki SI w wojsku zaakceptował 24 lutego minister obrony USA Mark Esper.

Obowiązująca do tej pory dyrektywa wojskowa z 2012 r. wymagała, aby ludzie kontrolowali funkcje autonomiczne w uzbrojeniu, ale nie odnosiła się do szerszych zastosowań SI. Nowe zasady w amerykańskiej armii mają dotyczyć zarówno zastosowań bojowych, jak i niebojowych (np.: gromadzenie danych wywiadowczych czy logistyka, czyli przewidywanie problemów z usterkami i konserwacją sprzętu).

Projekt zmian opublikowała w październiku ubiegłego roku Rada Innowacji Departamentu Obrony (DIB) jako „Zalecenia dotyczące etycznego wykorzystania sztucznej inteligencji” wraz z dokumentami wykonawczymi.

Radą kieruje były dyrektor generalny Google’a Eric Schmidt. Objął to stanowisko w 2016 roku, co było jednym z pierwszych wyraźnych sygnałów, że Pentagon podejmuje wysiłki, aby rozwiać obawy cywilów związane z wykorzystywaniem technologii opracowywanych w Dolinie Krzemowej do prowadzenia wojen. Zasady etyki dla wojskowej SI przygotowywano przez 15 miesięcy.

Mgliste filary

Nowe regulacje stwierdzają m.in., że ludzie powinni zachować odpowiedni poziom kontroli i pozostać odpowiedzialni za rozwój, wdrożenie, wykorzystanie i efekty działania systemów wykorzystujących sztuczną inteligencję. Opisują też kluczowe zagrożenia i pułapki związane z rozwojem SI, takie jak stronniczość w zestawach danych (bias). Wskazują również, że decyzje podejmowane przez zautomatyzowane systemy powinny być „przejrzyste” i „możliwe do opanowania” oraz że „musi istnieć sposób na ich wyłączenie lub dezaktywację” w razie ich niepożądanego działania.

Krytycy już teraz celują w nowe zasady i pięć filarów, które stanowią ich podstawę: odpowiedzialność, sprawiedliwe stosowanie, przejrzystość (identyfikowalność), niezawodność i zarządzanie. Niektórzy obserwatorzy twierdzą, że zasady wydają się zbyt niejasne i że założenie, że wszyscy zaangażowani w proces sztucznej inteligencji zdefiniują odpowiedzialne użycie w ten sam sposób, może doprowadzić do katastrofy.

Warto zaznaczyć, że Stany Zjednoczone w ostatnich latach na forum ONZ sprzeciwiały się planom wprowadzenia globalnego zakazu śmiercionośnej broni autonomicznej. Stanęły na stanowisku, że taki zakaz może powstrzymać innowacje.

Walka o cywilów

Dążenie Pentagonu do zwiększenia zaangażowania sztucznej inteligencji w trybach amerykańskiej obrony wyhamowało po kontrowersyjnym rozstrzygnięciu w ubiegłym roku przetargu na wart 10 miliardów dolarów kontrakt na usługę chmury obliczeniowej Joint Enterprise Defense Infrastructure (JEDI). Wygrał Microsoft, ale jego jedyny rywal w ostatecznej licytacji – Amazon – oskarżył Pentagon o nierówne traktowanie. Umowa nie doszła do skutku.

Jednak skutkiem ubocznym zamieszania wokół niej była publiczna dyskusja, czy giganci internetowi, którzy twierdzą, że chcą ulepszyć świat, powinni być zaangażowani w przemysł obronny. Krytycy JEDI – systemu mającego służyć do analizy danych zbieranych z pola walki, w tym rozpoznawania wrogich celów i przetwarzania tych danych dla dowódców za pomocą algorytmów sztucznej inteligencji – przyrównali go do nikczemnego „komputerowego władcy” Skynet w filmach o Terminatorze.

Zarówno Moskwa, jak i Pekin na temat regulowania etyki SI w swoich siłach zbrojnych milczą

Wcześniej, w 2018 roku, protesty pracowników Google’a doprowadziły tę firmę do wycofania się z wojskowego Projektu Maven, który wykorzystuje algorytmy do interpretacji obrazów lotniczych ze stref konfliktu.

Kodeks etyczny SI ma pomóc armii USA odzyskać wsparcie cywilów z branży technologicznej

Serwis Defense One przytacza wypowiedź Michaela C. Horowitza, profesora politologii na Uniwersytecie Pensylwanii, który twierdzi, że „poważne potraktowanie etyki sztucznej inteligencji może zwiększyć szanse, że niektórzy sceptycy w społeczności SI będą skłonni współpracować z Departamentem Obrony (DoD), jednocześnie potencjalnie poprawiając niezawodność i skuteczność wojskowych zastosowań algorytmów”.

Technologia bez kajdanek

W nowych zasadach brak jednak silniejszych ograniczeń. Omawiając je i odnosząc się do zarzutów, że są zbyt ogólnikowe, generał broni Jack Shanahan, dyrektor Joint AI Centre (centrum doskonałości DoD, które ma mu służyć wiedzą ekspercką i pomagać w operacyjnym przygotowaniu do ery SI), stwierdził na konferencji prasowej, że technologii SI nie nożna nakładać kajdanek, bo ona ewoluuje. Zaznaczył, że Pentagon i przemysł muszą teraz dopracować podpisane przez Espera zasady w formie szczegółowych wytycznych na każdym etapie procesu opracowywania, testowania, tworzenia i wykorzystywania sztucznej inteligencji. Pentagon stworzył już centrum tego dialogu, podkomitet w Joint AI Centre. Shanahan dodał, że być może opracowanie wytycznych będzie wymagało zmiany istniejącej, wspomnianej wcześniej dyrektywy w sprawie „funkcji autonomicznych i półautonomicznych w systemach broni” z 2012 roku.

Konkurencja nie śpi

Ogólnikowość wdrożonych zasad jest jednak przez komentatorów tłumaczona ambicjami Ameryki, by dążyć do zwycięstwa w wyścigu zbrojeń SI nad Chinami i Rosją.

Czy mało konkretne wytyczne to kolejny sygnał dla mocarstw, że w zasadzie, mimo regulacji, można więcej? Choć ogłoszone przez Pekin zasady etycznej SI promują dobroczynną chińską SI oraz wykorzystywanie jej potencjału dla dobra ludzkości i środowiska, wyścig Chin w opracowywaniu „inteligentniejszej”, tańszej technologii SI dla wojska jest wielopłaszczyznową strategią obejmującą rząd centralny, firmy krajowe i handel międzynarodowy.

„Większość chińskich przywódców uważa, że zwiększone użycie SI przez wojsko jest nieuniknione, i agresywnie to stanowisko realizuje” – ocenił Gregory Allen z ośrodka analitycznego Center for a New American Security (CNAS) w swoim raporcie.

Chiński Instytut Technologii projektuje nową generację systemów broni używającej sztucznej inteligencji, która może obejmować mikroskopijne roboty i roje, wirusy komputerowe, okręty podwodne i autonomiczne drony.

Notabene, stanowisko Pekinu w sprawie ONZ-owskiego zakazu prac nad bronią autonomiczną zakładało, że należy zabronić użycia takich systemów, ale nie badań nad nimi.

Z kolei Rosja (która nie opracowała, a przynajmniej nie ujawniła oficjalnej strategii SI dla swojej armii, a w tym starciu supermocarstw wydaje się boksować powyżej swej wagi, choćby z powodu mniejszego potencjału gospodarczego) buduje i chce obsługiwać własne duże bezzałogowe okręty podwodne o napędzie jądrowym, zdolne do przenoszenia broni nuklearnej, i koncentruje się głównie na rozwoju militarnej robotyki.

Zarówno Moskwa, jak i Pekin priorytetowo traktują też rozwój czołgów bezzałogowych, a na temat regulowania etyki SI w swoich siłach zbrojnych milczą.