• Nowe technologie w rękach terrorystów? To groźne dla ludzkości
  • Przeciwnicy autonomicznej broni pokazali straszny scenariusz
  • Szybkie, skoordynowane ataki będą możliwe m.in. dzięki systemom rojów

Brak odpowiedniej kontroli nad stosowaniem sztucznej inteligencji na polu walki może sprawić, że wpadnie ona w ręce terrorystów, a to umożliwi im działanie na nowe sposoby – czytamy w raporcie na temat niewłaściwego wykorzystania sztucznej inteligencji.

Przygotował go kilkudziesięcioosobowy zespół specjalistów od SI, obronności i terroryzmu.

Ostrzegają oni, że nieodpowiednia kontrola sztucznej inteligencji spowoduje, iż więcej osób i grup będzie zdolnych do przeprowadzenia ataku terrorystycznego. Może więc częściej dochodzić do takich ataków, a co za tym idzie może wzrosnąć liczba potencjalnych celów.

To bitwa, która jest jeszcze w powijakach, ale ludzkość może ją przegrać. Tym bardziej, że terroryści już zaczynają stosować SI.

Zaczynają używać

Przykładów nie trzeba daleko szukać. We wrześniu 2019 roku 10 dronów z materiałami wybuchowymi zaatakowało największą saudyjską rafinerię ropy i pole naftowe państwowego koncernu Aramco. To wystarczyło do wzniecenia pożaru, który na 10 dni spowodował zmniejszenie produkcji o połowę. Do ataku przyznali się jemeńscy bojownicy Huti, z którymi Arabia Saudyjska od kilku lat toczy wojnę.

Ale zaczęło się dużo wcześniej. Już w 2016 r. Państwo Islamskie, organizacja terrorystyczna i samozwańczy kalifat na terenie Syrii i Iraku, przeprowadziło w północnym Iraku atak dronem, zabijając dwóch wojowników Peszmergi, partyzantów walczących o niepodległość Kurdystanu.

Na początku 2018 roku trzynaście prymitywnych dronów z ładunkami wybuchowymi, skonstruowanymi przez syryjskich rebeliantów, zaatakowało bazy armii rosyjskiej w Hmejmim i bazę morską w Tartus. Drony były wyposażone w czujniki wysokości, a także zaprogramowany GPS naprowadzający na cel.

Zagrożone amerykańskie miasta

Powyższe przykłady wskazują, jak bardzo realne jest zagrożenie, że terroryści będą wykorzystywać nowe technologie do przeprowadzania ataków. W 2017 r. dyrektor FBI Christopher Wray przekazał Senatowi USA, że bezzałogowe statki powietrzne stanowią „bezpośrednie” zagrożenie terrorystyczne dla amerykańskich miast.

Tymczasem co i rusz innowatorzy konstruują coraz bardziej inteligentne maszyny, drony sterowane przez SI i autonomiczne pojazdy dla potrzeb wojska.

Na placu boju

Przyjęło się mówić, że po prochu i broni nuklearnej nadchodzi trzecia rewolucja militarna, która może wytworzyć nowe rodzaje konfliktów i wspomóc taktykę terrorystów. Chociaż autonomiczna broń nie jest jeszcze masowo stosowana na polach bitewnych, już tam zagląda. Przykładowo działko strażnicze, samoczynnie śledzące ruch i mogące otwierać ogień bez interwencji człowieka Samsung SGR-A1 pilnuje granicy między Koreą Północną a Południową.

Amerykańska armia chce używać SI do opracowywania taktyk walki naziemnej o nazwie Quaterback. W innym programie – Squad X – trenuje w Kaliforni roboty obok żołnierzy. W ostatnim teście terenowym w lipcu br. SI współpracowała z amerykańskimi „marines” w Twentynine Palms w systemach, które pozwalają oddziałom piechoty podejmować lepsze decyzje w złożonych sytuacjach bojowych.

Adres filmu na Youtube: https://www.youtube.com/watch?v=DgM7hbCNMmU&feature=emb_title

Squad X ćwiczenia eksperymentalne
Źródło: DARPAtv / YouTube

Z kolei Unia Europejska dofinansowuje projekt Roborder, zmierzający do wszechstronnego monitorowania granic z użyciem SI, robotów, inteligentnych kamer i dronów wypatrujących wroga, rebelianta czy uchodźcy.

Mocarstwa opracowują inteligentne pociski nuklearne dla autonomicznych łodzi podwodnychbezzałogowe samoloty bojowe. Coraz bardziej futurystyczne wizje militarnych rozwiązań stają się rzeczywistością. Armie największych potęg przygotowują się na wojny nowej generacji.

Straszny film

Z raportu na temat niewłaściwego wykorzystania sztucznej inteligencji wynika, że terroryści mogą zacząć korzystać z komercyjnie dostępnych systemów SI.

Mogą na przykład używać autonomicznych pojazdów do dostarczania materiałów wybuchowych, a inteligentny system rojów może im posłużyć do przeprowadzania skoordynowanych ataków.

Max Tegmark w książce pt. „Życie 3.0. Jak być człowiekiem w erze sztucznej inteligencji” napisał, że „jeśli milion zabójczych dronów można wysłać z jednej ciężarówki, to ma się przerażającą broń masowego rażenia całkiem nowego rodzaju: taką, która może selektywnie zabijać tylko określonych ludzi, pozostawiając wszystkich i wszystko inne bez szwanku”.

Adres filmu na Youtube: https://www.youtube.com/watch?v=9CO6M2HsoIA

Przerażający scenariusz przyszłych konfliktów
Źródło: Stop Autonomous Weapons / YouTube

Zobrazowali to aktywiści z ruchu „Stop autonomicznej broni”. Stworzyli przerażający film, będący możliwym scenariuszem przyszłości konfliktów i terroru – drony wielkości kolibrów wyposażone w ładunki wybuchowe, kamery i systemy rozpoznawania twarzy atakują zadane im cele, które skutecznie unicestwiają.

Al-Kaida 4.0

Z punktu widzenia terrorystów zastosowanie autonomicznej broni obniży koszty przeprowadzenia ataków i zmniejszy ślady pozostawiane na miejscu zbrodni.

Atrakcyjność takich rozwiązań może też polegać na tym, że „systemy sztucznej inteligencji mogą pozwolić terrorystom zachować anonimowość i doświadczyć większego dystansu psychologicznego do zbrodni, które popełniają” – napisali autorzy raportu.

Tegmark twierdzi, że terrorysta chcący zamordować polityka w przyszłości będzie mógł przesłać jego zdjęcie i adres do robota zabójcy, a ten po zniszczeniu celu dokona autozniszczenia. Nie będzie już samobójczych ataków, takich jak na World Trade Centre.

Którędy przenikanie?

Amerykański specjalista od bezpieczeństwa Jacob Ware twierdzi, że rozpowszechnianie sztucznej inteligencji i technologii robotów-zabójców wśród terrorystów może nastąpić między innymi poprzez wewnętrzny rozwój oraz sprzedaż.

Jak twierdzi ekspert terroryści intensywnie poszukują wykwalifikowanych naukowców do swoich wydziałów naukowych i inżynieryjnych.

Po drugie, jako że badania nad sztuczną inteligencją prowadzą prywatne firmy, zaawansowana technologia autonomicznej broni będzie sprzedawana na otwartym rynku wszystkim stronom konfliktu, od narodów po jednostki.

Adres filmu na Youtube: https://www.youtube.com/watch?v=q0GToqRo9aE&fbclid=IwAR14TdLb0wV1kAy2AaSfrx5sTxzV8xnxxzKqwvRFVJoHlr6-fPhTT4zXrcU

Komandosi przyszłości
Źródło: Royal Marines / YouTube

I to już się dzieje. Jak poinformował Sekretarz Obrony USA Mark Esper chińska firma Zyian sprzedaje klientom z Bliskiego Wschodu autonomiczne zabójcze drony. Według niego drony mogą działać prawie bez kontroli człowieka i są zdolne zabić.

Jak to zatrzymać?

Aby zapobiec tym negatywnym zjawiskom należy wzmocnić obronę, na przykład o systemy antydronowe i sztuczną inteligencję wspomagającą śledzenie terrorystów (takie systemy funkcjonują w ograniczonym zakresie m.in. w Wielkiej Brytanii i USA). Należałoby też zmienić systemy szkolenia antyterrorystycznego i opracować plany ograniczania incydentów.

Przerażający film, będący możliwym scenariuszem przyszłości konfliktów i terroru – drony wielkości kolibrów wyposażone w ładunki wybuchowe, kamery i systemy rozpoznawania twarzy atakują zadane im cele, które skutecznie unicestwiają.

Przede wszystkim, jak podkreśla Ware, świat powinien solidarnie rozważyć zakaz stosowania sztucznej inteligencji w wojsku, np. poprzez sugerowany przez przeciwników autonomicznej broni międzynarodowy traktat ONZ. Choć kraje, organizacje i specjaliści domagają się jednoznacznego traktatu zakazującego używania autonomicznej broni, to jednak jest to niepewny i długotrwały proces.

Kilka zaleceń

Raport fachowców od SI i obronności formułuje kluczowe rekomendacje w odpowiedzi na zmieniający się krajobraz zagrożeń:

  1. Decydenci polityczni powinni ściśle współpracować z osobami odpowiedzialnymi za kwestie techniczne i naukowcami badającymi potencjał, zapobiegający i łagodzący używanie SI przez terrorystów.
  2. Naukowcy i inżynierowie od SI powinni przyglądać się możliwościom podwójnych zastosowań innowacji.
  3. Należy określić najlepsze praktyki w obszarach badań naukowych, w których istnieje ryzyko podwójnego zastosowania sztucznej inteligencji.
  4. Kraje same muszą być zainteresowane, by poszerzać krąg zainteresowanych stron – krajów, instytucji, organizacji oraz ekspertów zaangażowanych w dyskusje na temat wyzwań związanych z terroryzmem.