- Nowe technologie w rękach terrorystów? To groźne dla ludzkości
- Przeciwnicy autonomicznej broni pokazali straszny scenariusz
- Szybkie, skoordynowane ataki będą możliwe m.in. dzięki systemom rojów
Brak odpowiedniej kontroli nad stosowaniem sztucznej inteligencji na polu walki może sprawić, że wpadnie ona w ręce terrorystów, a to umożliwi im działanie na nowe sposoby – czytamy w raporcie na temat niewłaściwego wykorzystania sztucznej inteligencji.
Przygotował go kilkudziesięcioosobowy zespół specjalistów od SI, obronności i terroryzmu.
Ostrzegają oni, że nieodpowiednia kontrola sztucznej inteligencji spowoduje, iż więcej osób i grup będzie zdolnych do przeprowadzenia ataku terrorystycznego. Może więc częściej dochodzić do takich ataków, a co za tym idzie może wzrosnąć liczba potencjalnych celów.
To bitwa, która jest jeszcze w powijakach, ale ludzkość może ją przegrać. Tym bardziej, że terroryści już zaczynają stosować SI.
Zaczynają używać
Przykładów nie trzeba daleko szukać. We wrześniu 2019 roku 10 dronów z materiałami wybuchowymi zaatakowało największą saudyjską rafinerię ropy i pole naftowe państwowego koncernu Aramco. To wystarczyło do wzniecenia pożaru, który na 10 dni spowodował zmniejszenie produkcji o połowę. Do ataku przyznali się jemeńscy bojownicy Huti, z którymi Arabia Saudyjska od kilku lat toczy wojnę.
Ale zaczęło się dużo wcześniej. Już w 2016 r. Państwo Islamskie, organizacja terrorystyczna i samozwańczy kalifat na terenie Syrii i Iraku, przeprowadziło w północnym Iraku atak dronem, zabijając dwóch wojowników Peszmergi, partyzantów walczących o niepodległość Kurdystanu.
Na początku 2018 roku trzynaście prymitywnych dronów z ładunkami wybuchowymi, skonstruowanymi przez syryjskich rebeliantów, zaatakowało bazy armii rosyjskiej w Hmejmim i bazę morską w Tartus. Drony były wyposażone w czujniki wysokości, a także zaprogramowany GPS naprowadzający na cel.
Zagrożone amerykańskie miasta
Powyższe przykłady wskazują, jak bardzo realne jest zagrożenie, że terroryści będą wykorzystywać nowe technologie do przeprowadzania ataków. W 2017 r. dyrektor FBI Christopher Wray przekazał Senatowi USA, że bezzałogowe statki powietrzne stanowią „bezpośrednie” zagrożenie terrorystyczne dla amerykańskich miast.
Tymczasem co i rusz innowatorzy konstruują coraz bardziej inteligentne maszyny, drony sterowane przez SI i autonomiczne pojazdy dla potrzeb wojska.
Na placu boju
Przyjęło się mówić, że po prochu i broni nuklearnej nadchodzi trzecia rewolucja militarna, która może wytworzyć nowe rodzaje konfliktów i wspomóc taktykę terrorystów. Chociaż autonomiczna broń nie jest jeszcze masowo stosowana na polach bitewnych, już tam zagląda. Przykładowo działko strażnicze, samoczynnie śledzące ruch i mogące otwierać ogień bez interwencji człowieka Samsung SGR-A1 pilnuje granicy między Koreą Północną a Południową.
Amerykańska armia chce używać SI do opracowywania taktyk walki naziemnej o nazwie Quaterback. W innym programie – Squad X – trenuje w Kaliforni roboty obok żołnierzy. W ostatnim teście terenowym w lipcu br. SI współpracowała z amerykańskimi „marines” w Twentynine Palms w systemach, które pozwalają oddziałom piechoty podejmować lepsze decyzje w złożonych sytuacjach bojowych.
Z kolei Unia Europejska dofinansowuje projekt Roborder, zmierzający do wszechstronnego monitorowania granic z użyciem SI, robotów, inteligentnych kamer i dronów wypatrujących wroga, rebelianta czy uchodźcy.
Mocarstwa opracowują inteligentne pociski nuklearne dla autonomicznych łodzi podwodnych i bezzałogowe samoloty bojowe. Coraz bardziej futurystyczne wizje militarnych rozwiązań stają się rzeczywistością. Armie największych potęg przygotowują się na wojny nowej generacji.
Straszny film
Z raportu na temat niewłaściwego wykorzystania sztucznej inteligencji wynika, że terroryści mogą zacząć korzystać z komercyjnie dostępnych systemów SI.
Mogą na przykład używać autonomicznych pojazdów do dostarczania materiałów wybuchowych, a inteligentny system rojów może im posłużyć do przeprowadzania skoordynowanych ataków.
Max Tegmark w książce pt. „Życie 3.0. Jak być człowiekiem w erze sztucznej inteligencji” napisał, że „jeśli milion zabójczych dronów można wysłać z jednej ciężarówki, to ma się przerażającą broń masowego rażenia całkiem nowego rodzaju: taką, która może selektywnie zabijać tylko określonych ludzi, pozostawiając wszystkich i wszystko inne bez szwanku”.
Zobrazowali to aktywiści z ruchu „Stop autonomicznej broni”. Stworzyli przerażający film, będący możliwym scenariuszem przyszłości konfliktów i terroru – drony wielkości kolibrów wyposażone w ładunki wybuchowe, kamery i systemy rozpoznawania twarzy atakują zadane im cele, które skutecznie unicestwiają.
Al-Kaida 4.0
Z punktu widzenia terrorystów zastosowanie autonomicznej broni obniży koszty przeprowadzenia ataków i zmniejszy ślady pozostawiane na miejscu zbrodni.
Atrakcyjność takich rozwiązań może też polegać na tym, że „systemy sztucznej inteligencji mogą pozwolić terrorystom zachować anonimowość i doświadczyć większego dystansu psychologicznego do zbrodni, które popełniają” – napisali autorzy raportu.
Tegmark twierdzi, że terrorysta chcący zamordować polityka w przyszłości będzie mógł przesłać jego zdjęcie i adres do robota zabójcy, a ten po zniszczeniu celu dokona autozniszczenia. Nie będzie już samobójczych ataków, takich jak na World Trade Centre.
Którędy przenikanie?
Amerykański specjalista od bezpieczeństwa Jacob Ware twierdzi, że rozpowszechnianie sztucznej inteligencji i technologii robotów-zabójców wśród terrorystów może nastąpić między innymi poprzez wewnętrzny rozwój oraz sprzedaż.
Jak twierdzi ekspert terroryści intensywnie poszukują wykwalifikowanych naukowców do swoich wydziałów naukowych i inżynieryjnych.
Po drugie, jako że badania nad sztuczną inteligencją prowadzą prywatne firmy, zaawansowana technologia autonomicznej broni będzie sprzedawana na otwartym rynku wszystkim stronom konfliktu, od narodów po jednostki.
I to już się dzieje. Jak poinformował Sekretarz Obrony USA Mark Esper chińska firma Zyian sprzedaje klientom z Bliskiego Wschodu autonomiczne zabójcze drony. Według niego drony mogą działać prawie bez kontroli człowieka i są zdolne zabić.
Jak to zatrzymać?
Aby zapobiec tym negatywnym zjawiskom należy wzmocnić obronę, na przykład o systemy antydronowe i sztuczną inteligencję wspomagającą śledzenie terrorystów (takie systemy funkcjonują w ograniczonym zakresie m.in. w Wielkiej Brytanii i USA). Należałoby też zmienić systemy szkolenia antyterrorystycznego i opracować plany ograniczania incydentów.
Przerażający film, będący możliwym scenariuszem przyszłości konfliktów i terroru – drony wielkości kolibrów wyposażone w ładunki wybuchowe, kamery i systemy rozpoznawania twarzy atakują zadane im cele, które skutecznie unicestwiają.
Przede wszystkim, jak podkreśla Ware, świat powinien solidarnie rozważyć zakaz stosowania sztucznej inteligencji w wojsku, np. poprzez sugerowany przez przeciwników autonomicznej broni międzynarodowy traktat ONZ. Choć kraje, organizacje i specjaliści domagają się jednoznacznego traktatu zakazującego używania autonomicznej broni, to jednak jest to niepewny i długotrwały proces.
Kilka zaleceń
Raport fachowców od SI i obronności formułuje kluczowe rekomendacje w odpowiedzi na zmieniający się krajobraz zagrożeń:
- Decydenci polityczni powinni ściśle współpracować z osobami odpowiedzialnymi za kwestie techniczne i naukowcami badającymi potencjał, zapobiegający i łagodzący używanie SI przez terrorystów.
- Naukowcy i inżynierowie od SI powinni przyglądać się możliwościom podwójnych zastosowań innowacji.
- Należy określić najlepsze praktyki w obszarach badań naukowych, w których istnieje ryzyko podwójnego zastosowania sztucznej inteligencji.
- Kraje same muszą być zainteresowane, by poszerzać krąg zainteresowanych stron – krajów, instytucji, organizacji oraz ekspertów zaangażowanych w dyskusje na temat wyzwań związanych z terroryzmem.