Największe armie coraz częściej rozglądają się za innowacjami z rynku cywilnego. Z kolei technologiczne firmy niechętnie odmawiają wojsku, licząc na miliardowe kontrakty. Nawet bunt ideowych pracowników koncernów może się okazać próżnym trudem
Armia matką wynalazków – to stara prawda, która wciąż obowiązuje. W historii przykładów na to jest bez liku, ale żeby zaczerpnąć tylko z tej najnowszej: bez wojskowych technologii takich jak GPS kierowcy czy użytkownicy smartfonów nie mogliby się cieszyć choćby nawigacją. Podobne pochodzenie mają drony, które zostały wymyślone do działań wojennych, a dziś spełniają się w rolnictwie, ochronie klimatu czy geodezji. Skorzystała też medycyna – pierwszy z brzegu przykład to elektroniczne protezy czy egzoszkielety. Warto też przypomnieć, że armia stoi nawet za tak prozaicznymi wynalazkami jak popularna w USA taśma klejąca – duct tape.
Jednym z modelowych przykładów takiej współpracy wojskowo-cywilnej jest amerykańska DARPA, czyli Agencja Zaawansowanych Projektów Badawczych w Obszarze Obronności. Ta agencja rządowa zajmująca się rozwojem technologii wojskowej działa w strukturach Departamentu Obrony USA. Stoi między innymi za powstaniem sieci komputerowej, która zapoczątkowała rozwój internetu.
Jednak – jak zauważają eksperci – czas, kiedy amerykański resort obrony zwracał się do swoich agencji w celu pozyskania nowych technologii, powoli mija. Miliardy dolarów przesuwane są z sektora wojskowego do cywilnego. A to stawia koncerny technologiczne w dwuznacznej sytuacji.
Robot-zabójca (nie) czeka na rozkaz
Twórcy opublikowanego niedawno raportu holenderskiej organizacji PAX pod nazwą „Don’t be evil?” (ang. nie bądź zły) zastanawiają się nad rozwojem śmiercionośnej broni autonomicznej.
Sam tytuł opracowania jest grą ze starym mottem Google’a, które firma usunęła z kodeksu postępowania koncernu wiosną 2018 roku. Złośliwi twierdzili, że monopolistyczny gigant bardzo dawno odszedł od swojej dewizy, więc nie mógł jej dalej nieść na sztandarach. Faktem jest, że Google od lat posądzany był nie tylko o nieuczciwe praktyki rynkowe i podatkowe, ale też naruszanie prywatności bez wiedzy użytkowników.
Ale problemy z podatkami czy nie zawsze zgodna z etyką polityka przetwarzania danych to jedno, a tworzenie „złych” technologii to drugie.
Idea broni, która byłaby w stanie zabijać bez konieczności udziału w tym procederze człowieka, wydaje się coraz bliższa urzeczywistnienia, a więc budzi coraz więcej emocji. Korzystanie z takiego narzędzia mogłoby naruszać podstawowe zasady prawne i etyczne, a także stwarzać oczywiste zagrożenie dla międzynarodowego pokoju i bezpieczeństwa.
Śmiercionośna broń autonomiczna, czyli roboty-zabójcy, byłaby w stanie wybierać i atakować poszczególne cele bez znaczącej kontroli człowieka. Pomijając sprawę oceny, czy to etycznie dopuszczalne, mogłoby to prowadzić do tragicznych pomyłek. A zważywszy na napiętą sytuację pomiędzy wieloma krajami, można być pewnym, że błąd oprogramowania lub zła decyzja algorytmu mogłyby być iskrą wywołującą konflikt zbrojny nawet na światową skalę.
Idea broni, która byłaby w stanie zabijać bez konieczności udziału w tym procederze człowieka, wydaje się coraz bliższa urzeczywistnienia, a więc budzi coraz więcej emocji
Jak można przeczytać w raporcie PAX, rozwój śmiercionośnej broni autonomicznej wzbudził głębokie zaniepokojenie i zapoczątkował międzynarodową debatę na temat celowości korzystania z takich rozwiązań. Jednym z głównych przeciwników pomysłu na wykorzystywanie robotów-zabójców była Organizacja Narodów Zjednoczonych. Jednak m.in. Stany Zjednoczone i Rosja zablokowały wysiłki ONZ na rzecz wprowadzenia międzynarodowego zakazu stosowania w pełni autonomicznych systemów broni, które pewnego dnia mogłyby prowadzić wojnę bez interwencji człowieka. USA argumentowały, że ich regulowanie jest przedwczesne.
Wojsko idzie do cywila
Aby jednak taka autonomiczna broń pojawiła się na rynku, potrzebne są rozwiązania z obszaru sztucznej inteligencji. Wojsko chętnie po nie sięga, ale woli zakupy w cywilnych sklepach.
Oczywiście korzystanie ze sztucznej inteligencji w obszarze autonomicznych pojazdów czy samolotów, dronów rozpoznawczych czy nawigacji to pozytywne aspekty działania technologii. Nawet w armii.
Jednak pozwolenie robotom na autonomiczne decyzje co do celu i skali działania, aby zabić wroga, to co innego. Dlatego poszczególne armie nie mogą wprost zamówić na rynku rozwiązań pozwalających na zabijanie ludzi przez autonomiczne roboty. Wynika to z faktu, że koncerny wprowadzają już swoiste kodeksy dobrych praktyk odnośnie do produkowanych rozwiązań i kontrahentów.
Wojskowi mogą jednak tworzyć pewne podstawy do takich broni za pomocą różnorodnych „pokojowych” projektów. Wojsko szuka tych rozwiązań na rynku cywilnym, który jest o wiele bardziej zaawansowany w rozwoju sztucznej inteligencji niż spółki zbrojeniowe. Tam jednak powstaje opór, przed tworzeniem śmiercionośnych technologii dla armii, w szczególności w USA. Z kolei Rosja, Izrael czy Chiny nie mają takich problemów ze względu na to, że firmy cywilne często są nadzorowane przez rząd i armię. Jednak firmy, które nie są pod takim nadzorem, mają z tym coraz większy kłopot.
PAX na podstawie danych rynkowych oraz ankiet przeprowadzonych wśród firm stworzył zestawienie kilkudziesięciu przedsiębiorstw technologicznych opisujące ich zaangażowanie w tworzenie rozwiązań, które mogą być zastosowane do działań zbrojnych. Ranking opierał się na trzech kryteriach:
- czy firma opracowuje technologię, która może być istotna w kontekście broni autonomicznej;
- czy pracuje nad konkretnymi projektami wojskowymi;
- czy zobowiązała się nie przyczyniać do rozwoju broni autonomicznej.
Firmy sklasyfikowano w trzystopniowej skali i odpowiednio „pokolorowano”. Na czerwono oznaczono cały peleton amerykańskich firm, jak: Amazon, Intel, Microsoft czy Oracle. To znaczy, że co do tych firm jest najwięcej obaw. Chińskie koncerny (np. Alibaba, Baidu, Megvii, Tencent) znalazły się w większości w środkowej kategorii pomarańczowej.
Co ciekawe, wobec Google’a takich obaw autorzy raportu już nie mają (kolor zielony). To pokłosie wycofania się giganta z Mountain View ze współpracy z Pentagonem. Taka decyzja firmy była reakcją na protest z 2018 roku pracowników Google’a na tworzony wraz z amerykańskim wojskiem projekt Maven. Ideą projektu było m.in. opracowanie systemu wykorzystującego sztuczną inteligencję do analizy pola walki za pomocą algorytmów. Tysiące inżynierów z Google’a podpisało się pod listem otwartym do szefostwa firmy wskazującym, że Google nie powinien zajmować się wojną. Wielu z nich odeszło z firmy.
W wyniku tego buntu na pokładzie Google opublikował własne zasady opracowywania technologii sztucznej inteligencji w taki sposób, aby nie służyła ona działaniom zbrojnym. Z tego samego powodu z projektu Maven wyszła firma Clarifai, zajmująca się uczeniem maszynowym i rozpoznawaniem obrazów. Raport PAX przytacza też przykład kanadyjskiej firmy Clearpath Robotics, która już w 2014 roku zobowiązała się nie wnosić żadnego wkładu w rozwój broni autonomicznej. W spółce stwierdzono bowiem, że „rozwój zabójczych robotów jest nierozsądny, nieetyczny i powinien zostać zakazany na całym świecie”. Tak firma odżegnała się od wszelkich przyszłych powiązań z technologią wojskową. Podobnie zrobiło już 240 firm na całym świecie.
Jak zarobić i się nie ubrudzić
Warto jednak zaznaczyć, że do niedawna liczne spółki bez oporów wystawiały ręce po miliardowe kontrakty wojskowe, a projekt pod nazwą JEDI jest tego świetnym przykładem.
Projekt JEDI (Joint Enterprise Defense Infrastructure) to chmura służąca do analizy danych zbieranych z pola walki, w tym rozpoznawania wrogich celów i przetwarzania tych danych dla dowódców za pomocą algorytmów sztucznej inteligencji. Choć sama chmura nie zabija, to naukowcy uważają, że może przyczynić się do stworzenia podstawy dla autonomicznych broni, w tym robotów czy pojazdów.
O możliwość stworzenia tej chmury walczą zarówno Microsoft, jak i Amazon Web Services. Jak czytamy w raporcie PAX, Amazon nie będzie się wstydził wziąć pieniędzy z Pentagonu za tego typu innowacje, tak jak od lat nie odstręczają go pieniądze agencji CIA. Chętne na wojskowe pieniądze z tego projektu były też Oracle czy IBM, choć zostały wyeliminowane we wcześniejszej rundzie konkursu. Na „stole” Pentagonu leży 10 miliardów dolarów na budowę pierwszej na świecie „chmury wojny” i zarówno Microsoft, jak i Amazon chętnie po nie sięgną.
Duże koncerny, takie jak Google, Microsoft czy IBM, mogą sobie pozwolić na odmawianie największym producentom broni czy rządom (choć nie zawsze to robią). Prawdziwe zagrożenie czai się w obszarze małych start-upów i niewielkich ośrodków naukowych
Zresztą bywa, że deklaracje o współpracy z wojskiem brzmią szczytnie. Cytowany w raporcie szef Amazona Jeff Bezos w reakcji na wycofanie się Google’a z projektu Maven stwierdził: „Jeśli big tech odwróci się plecami do Departamentu Obrony, kraj znajdzie się w opałach”.
Nie tylko jednak amerykańskie firmy są „złe i nieetyczne”. Jak twierdzą autorzy raportu, chińskie giganty takie jak Baidu, Alibaba czy Tencent dzięki miliardowym wpływom od swojego rządu rozwijają technologię SI na wielką skalę. Utraty nomen omen twarzy najwyraźniej nie obawiają się też firmy Megvii czy Sense Time dostarczające innowacyjne rozwiązania w obszarze rozpoznawania twarzy.
W projektach wojskowych brały też udział wydzielone firmy Samsunga czy Siemensa. Jednak w przypadku koreańskiej firmy na pytania autorów raportu nie padły odpowiedzi o faktyczną współpracę. Projekt robotów produkowanych przez Samsung Techwin został w 2014 roku sprzedany do koreańskiej Hanwha. Cóż, nie każdy koncern technologiczny chce oficjalnie tworzyć technologię, która będzie zabijać ludzi.
Wielkie problemy z drobnicą
O ile jednak duże koncerny, takie jak Google, Microsoft czy IBM, mogą sobie pozwolić na odmawianie największym producentom broni czy rządom, choć nie zawsze to robią, o tyle prawdziwe zagrożenie czai się w obszarze małych start-upów i niewielkich ośrodków naukowych. Tam również pracują znamienici eksperci, naukowcy z wielu dziedzin opracowujący sztuczną inteligencję. Zdaniem autorów raportu to właśnie tam ośrodki wojskowe będą kierować wkrótce swoje zainteresowanie.
Idealnie widać to na przykładzie dronów. Choć przyszły do „cywila” z wojska, to dopiero rozwój oprogramowania oraz usprawnienia tych maszyn latających przez niewielkie firmy spowodował, że armia zobaczyła nową jakość w tych urządzeniach.
Podobnie może się stać z autonomicznymi pojazdami, analizą obrazu, robotami dziś ratującymi życie. Ich rozwój w przyszłych latach może się okazać bardzo atrakcyjny dla kręgów militarnych. Nawet jeśli dziś większość niewielkich firm z Izraela czy Chin stanowczo zaprzecza wykorzystaniu ich technologii do działań zbrojnych, nie ma żadnej pewności, że za jakiś czas tak się nie stanie.
Rewolucja na polu walki
Zdaniem ekspertów z PAX pojawienie się autonomicznej broni przyniesie trzecią rewolucję w sposobie prowadzenia wojny – poprzednie dwie to wynalezienie prochu i skonstruowanie bomby atomowej. Wszystko wskazuje też na to, że miliardy dolarów wpompowane w sektor technologiczny przez rządy ma na celu opracowanie tej zabójczej broni, choć oficjalnie rządy tego nie potwierdzają.
Jednak – jak analizują twórcy raportu – w ramach zbliżającego się wyścigu zbrojeń rządy dążą do opracowania autonomicznej broni, opierając swoje badania na technologiach tworzonych przez cywilne firmy.
„Podczas gdy technologia cyfrowa, a zwłaszcza sztuczna inteligencja, może być korzystna dla ludzkości, niezliczeni eksperci od sztucznej inteligencji i robotyki ostrzegają, że technologii tej nie należy stosować do opracowywania śmiercionośnej broni autonomicznej” – czytamy w raporcie.
Duża liczba czołowych firm, jak Apple, Facebook, IBM, Intel i Microsoft, poparła list otwarty z 2015 roku, wskazując, że wyścig zbrojeń w oparciu o wojskowe użycie sztucznej inteligencji jest złym pomysłem i należy temu zapobiec. Należy też zakazać produkcji i korzystania z autonomicznej broni ofensywnej, będącej poza znaczącą kontrolą człowieka.
Jak jednak wskazują autorzy raportu, te same firmy nie chcą się angażować w politykę wspierającą hamowanie rozwoju takiej broni. A czasem taki opór okazywał się nieskuteczny, przykładem mogą być pracownicy Microsoftu zaniepokojeni projektem JEDI. Ich wątpliwości wystosowane wobec działań firmy nie zostały wysłuchane, jak to miało miejsce w przypadku inżynierów z Google’a.
Pentagon szuka listka figowego
Pomimo nieskrywanego entuzjazmu Amazona i Microsoftu wobec projektu JEDI amerykańskie wojsko zdaje się słyszeć niezadowolenie wśród „cywilów” i nie chce dopuścić do dezercji, do jakiej doszło w przypadku Google’a.
Kilka dni temu świat obiegła informacja, że Pentagon poszukuje etyka, który będzie znał się zarówno na przetwarzaniu danych, jak i uczeniu maszynowym. „Wojsko amerykańskie szuka odpowiedniej osoby, która pomogłaby mu poruszać się po moralnie mętnych wodach zagadnienia: sztuczna inteligencja na polu walki XXI wieku” – czytamy w artykule „Guardiana”.
Informację o rekrutacji potwierdził sam zainteresowany. – Jednym ze stanowisk, które zamierzamy obsadzić, będzie ktoś, kto nie tylko patrzy na standardy techniczne, ale jest etykiem – powiedział generał broni Jack Shanahan, dyrektor Joint Artificial Intelligence Center w Departamencie Obrony USA.
Z wypowiedzi przedstawicieli Pentagonu trudno wprost zrozumieć, jakie rzeczywiście zadania stanęłyby przed etykiem ds. sztucznej inteligencji w wojsku. Może mógłby pełnić rolę swoistego PR-owca dla opinii publicznej, wskazując etyczne standardy, jakimi posługuje się amerykańska armia, przygotowując systemy walki oparte o SI. Może wskazywałby twardogłowym generałom uboczne skutki korzystania z analizy danych.
Można jednak też domniemywać, że jest to próba załagodzenia sytuacji z amerykańskimi koncernami w dobie obawy, że Chińczycy mogą już przewyższać USA pod względem zaawansowania w obszarze sztucznej inteligencji na polu walki.
Jak stwierdzili twórcy raportu PAX, firmy technologiczne wiedzą, że jeśli nie podejmą odpowiednich kroków, ich technologia może przyczynić się do rozwoju śmiercionośnej broni autonomicznej. Muszą także zdawać sobie sprawę, że zaangażowanie w opracowywanie śmiercionośnych autonomicznych systemów uzbrojenia lub samo postrzeganie firmy jako zaangażowanej prawdopodobnie byłoby niekorzystne dla biznesu, mogłoby zaszkodzić reputacji i potencjalnie osłabić ich zdolność do przyciągania i zatrzymywania najlepszych talentów technicznych.
Niezbędne jest ustanowienie jasnych, publicznie dostępnych polityk i strategii, aby temu zapobiec.