• Wojsko prowadzi liczne projekty z wykorzystaniem superkomputerów
  • Niektóre z zastosowań budzą stanowczy sprzeciw naukowców
  • Eksperci są zgodni, że maszyna nie może sama decydować o ludzkim życiu

Potęgę złożonych algorytmów, sieci neuronowych i uczenia maszynowego można wykorzystać w dziedzinie wojskowości na wiele sposobów.

Zaangażowanie najnowocześniejszej technologii w sektor militarny budzi sporo emocji. Tutaj bowiem wszelkie metryki obowiązujące do tej pory i przesądzające o dominującej pozycji danego kraju na arenie międzynarodowej tracą na znaczeniu. Jak twierdzi prof. Andrzej Zybertowicz, doradca szefa Biura Bezpieczeństwa Narodowego, nawet niewielkie państewko dysponujące „przełomową technologią SI” jest w stanie zburzyć dotychczasowy porządek w regionie.

Algorytmy w służbie mundurowej. Główne zastosowania

Nowe technologie i związane z nimi inteligentne systemy oraz maszyny przewijają się w wojskowości na wielu polach, które można podsumować w poniższych kategoriach:

Cyberbezpieczeństwo

Systemy wojskowe są bardzo atrakcyjnym celem ataków cybernetycznych. Mogą skutkować wyciekiem ściśle poufnych informacji, zakłóceniem regularnej pracy, a nawet zmianą parametrów uzbrojenia. Co odbija się na możliwościach obronnych danego kraju.

Za przykład niech posłuży niedawny wyciek danych kart kredytowych 30 tys. pracowników Pentagonu. Pechowo incydent zbiegł się w czasie z raportem Urzędu Rozliczeń Rządu USA (Government Accountability Office). Dotyczył on stanu zabezpieczeń wojskowej infrastruktury USA oraz uzbrojenia przed cyberatakami.

Audyt ten wykazał liczne luki i uchybienia łatwe do wykorzystania przez hakerów.

Adres filmu na Youtube: https://youtu.be/XAgXwUwQoPA

Zagrożenia wynikające z zastosowania SI na polu walki.
Źródło: Veritasium

Przy analizie ogromnej ilości danych oraz kryjących się w nich podejrzanych plikach niezastąpione okazują się inteligentne systemy. Nadzorowane uczenie maszynowe wykrywa nowe złośliwe oprogramowanie lub takie, które powstało na skutek mutacji już istniejącego. Z kolei nienadzorowane uczenie maszynowe sprawdza się w wykrywaniu wszelkich anomalii, czyli odstępstw od ustalonej normy.

SI w cyberbezpieczeństwie ułatwia też skalowanie. Systemy analizujące aktywność w sieci mogą same interpretować incydenty i podejmować stosowne działania, bez konieczności angażowania w nie człowieka. Do budowy centrum ochrony przed cybernetycznymi zagrożeniami szykuje się między innymi NATO. Wejdzie ono w skład siedziby głównej dowództwa sojuszu (SHAPE – Supreme Headquarters Allied Powers Europe) mieszczącej się w pobliżu belgijskiego miasta Mons. Stanie się w pełni operacyjne do 2023 roku. Z kolei w Rosji rzekomo funkcjonuje już system detekcji cyberataków na infrastrukturę krytyczną, znany szerzej jako “GosSOPKA”. Obejmuje swoim zasięgiem przynajmniej 10 agencji państwowych.

Logistyka i transport

O kluczowym znaczeniu logistyki i transportu w wojskowości nikogo przekonywać nie trzeba. Historia zna liczne przypadki, kiedy to właśnie te czynniki przesądziły o zwycięstwie lub porażce na polu walki. Najbardziej żywym przykładem może być inwazja Napoleona na Rosję w 1812 roku, która skończyła się zdziesiątkowaniem Wielkiej Armii. Srogą porażkę na wschodzie m. in. ze względu na problemy z zaopatrzeniem ponieśli również Niemcy w 1941 roku podczas operacji “Barbarossa”.

Efektywne przemieszczanie zapasów, amunicji, uzbrojenia oraz żołnierzy stanowi sedno udanych misji wojskowych. Zastosowanie złożonych algorytmów, uczenia maszynowego i sieci neuronowych może obniżyć koszty takich operacji. A także pozwala wykrywać nieprawidłowości w całym procesie.

Jednym z przykładów może być zaangażowanie stworzonej przez koncern IBM platformy Watson. Służy ona do monitorowania stanu technicznego oraz przewidywania potencjalnych usterek w wozach bojowych Stryker, należących do amerykańskiej armii. O kondycję amerykańskich transporterów opancerzonych Bradley w podobny sposób troszczy się również platforma firmy Uptake. Stale monitoruje ich stan techniczny i prognozuje ewentualną konserwację.

Identyfikacja celu

Na współczesnym, coraz bardziej złożonym polu walki (szczególnie w rejonach o dużym skupieniu ludności cywilnej oraz gęstej zabudowie) skuteczność w identyfikacji celu stanowi ogromne wyzwanie. Analizowanie raportów, dokumentów, strumieni informacji z internetu oraz innych źródeł z użyciem zaawansowanych algorytmów pozwala siłom wojskowym przejąć większą kontrolę nad strefą działań. Szczególną pomoc stanowią w tym względzie systemy przetwarzania obrazu.

Możliwości wspomaganych uczeniem maszynowym systemów identyfikacji celów uwzględniają też prognozowanie ruchów sił nieprzyjaciela. Ponadto określają prognozę pogody oraz czynniki środowiskowe w miejscu operacji wojskowej. Na podstawie pozyskanych danych takie systemy mogą odkrywać i śledzić nowe cele.

Dla przykładu realizowany przez agencję DARPA projekt o nazwie TRACE (ang. Target Recognition and Adaption in Contested Environments) zakłada automatyczną identyfikację celów z pomocą zdjęć z radarów z syntetyczną aperturą (SAR – Synthetic-Aperture Radar). Program badawczy wykorzystujący głębokie uczenie maszynowe rozpoczęto w połowie 2015 roku. Ma trwać 42 miesiące i zakończyć się pod koniec 2019 roku demonstracją rozpoznawania celów z powietrza.

Podobny projekt badawczy o nazwie SAPIENT (ang. Sensors for Asset Protection using Integrated Electronic Network Technology) prowadzi obecnie rządowa brytyjska agencja DSTL (Defence Science and Technology Laboratory). Jak tłumaczy Minister Obrony Wielkiej Brytanii, Stuart Andrew, system może działać jako autonomiczne oczy do monitorowania ruchów wrogich sił w terenie zabudowanym.

Rozwiązanie wykorzystujące szereg sensorów noszonych i stacjonarnych skanerów oraz algorytmy uczenia maszynowego testowano niedawno na ulicach Montrealu. W trzytygodniowych ćwiczeniach wzięło udział 150 ekspertów rządowych i branżowych oraz 80 kanadyjskich żołnierzy. Wykorzystano w nich dodatkowo autonomiczne pojazdy lądowe oraz powietrzne, które dostarczały operatorom na ziemi niezbędnych informacji o sytuacji w terenie. SAPIENT pozwolił wzmocnić świadomość sytuacyjną. System ma szansę wejść do powszechnego użytku w 2025 roku.

Symulacja pola walki oraz trening

Multidyscyplinarny system pozwalający na tworzenie modeli komputerowych, symulujących realny konflikt to marzenie każdego dowódcy. W bezpiecznych dla swojej kadry warunkach można testować wszelkie scenariusze działań, warianty uzbrojenia i edukować w zakresie taktyki. Tu, podobnie jak w zaawansowanych symulatorach lotów szkoli się zarówno przyszłych, jak i obecnych żołnierzy.

Adres filmu na Youtube: https://youtu.be/e_DsE9f5gyk

Inteligentna broń może zmienić pole walki.
Źródło: Vox

Największe siły lądowe, powietrzne i morskie na świecie wykazują coraz większe zainteresowanie programami szkoleniowymi z wykorzystaniem inteligentnych systemów komputerowych. Takie oprogramowanie wprowadza fundamentalną zmianę w modelu nauczania – adaptuje się do poziomu studiujących. System poza uczeniem kadetów stale monitoruje poziom przyswojonej wiedzy i dostosowuje do niej proces edukacji. Czasem wystarczy drobna zmiana parametrów na etapie programu, aby znaleźć zarówno słabości, jak i mocne strony przyszłego żołnierza.

Monitorowanie zagrożenia i świadomość sytuacyjna

W ogromnej mierze monitorowanie potencjalnego zagrożenia bazuje na operacjach typu ISR (ang. Intelligence, Surveillance and Reconnaissance – wywiad, inwigilacja i rozpoznanie). Systemy bezzałogowe (zarówno naziemne, jak i powietrzne) sterowane zdalnie lub wysyłane zaprogramowaną wcześniej trasą, wyposażone w moduły uczenia maszynowego pomagają siłom obronnym w zwiększeniu świadomości sytuacyjnej.

Podobnie sytuacja wygląda na niebie. Drony sprzężone z uczeniem maszynowym i algorytmami mogą autonomicznie patrolować rejony granic państwa. Poza tym mogą identyfikować potencjalne zagrożenie i przesyłać informacje o nim prosto do centrum dowodzenia. To samo tyczy się bezpieczeństwa baz wojskowych i ograniczenia ryzyka personelu podczas misji w odległych zakątkach.

W ramach projektu laboratorium badawczego sił lotniczych USA przez ostatnie kilka lat testowano bezzałogowe autonomiczne drony między innymi w Afganistanie. Ich aktywność skupiała się na śledzeniu terrorystów podkładających ładunki wybuchowe przy trasach, po których poruszały się wojska koalicji.

Do 2025 roku Wielka Brytania zamierza wydać nawet 2 mld funtów na budowę myśliwca Tempest. Ma on zastąpić obecną generację, czyli model Eurofighter Typhoon. Jednym z podstawowych założeń projektu jest możliwość operowania bez obecności pilota za sterami maszyny.

Platformy do działań wojennych

Siły lądowe, morskie, powietrzne, a nawet platformy o przeznaczeniu kosmicznym coraz częściej korzystają z potęgi, jaką niesie ze sobą szeroko rozumiana sztuczna inteligencja. Wydaje się spajać wszystkie gałęzie świata militariów, tworząc jednolity system uzbrojenia, którego wszystkie składniki będzie można ze sobą elastycznie łączyć, zależnie od skali przedsięwzięcia. Maszyny mogą nas też uchronić przed błędami spowodowanymi czynnikiem ludzkim – przykładowo zmęczeniem czy brakiem skupienia.

Z drugiej strony, prędzej czy później będziemy musieli zmierzyć się z kontrowersyjnym tematem autonomicznego uzbrojenia (ang. LAW – Lethal Autonomous Weapon). Bardzo szybko tego typu rozwiązaniom przyczepiono etykietę zabójczych robotów (ang. Killer Robots). Za autora tego terminu jest uważany amerykański etyk prof. Robert Sparrow.

Tworzeniu i wdrażaniu takich urządzeń sprzeciwia się szerokie grono ekspertów ze świata nauki oraz technologii (między innymi Stephen Hawking, Elon Musk, Steve Wozniak, Noam Chomsky, współzałożyciel Skype’a Jaan Tallinn i współzałożyciel Google DeepMind Demis Hassabis). Zarówno badacze, jak i specjaliści w dziedzinie robotyki oraz sztucznej inteligencji już od ponad trzech lat wzywają ONZ do podpisania traktatu zakazującego produkcji tego typu sprzętu.

W liście otwartym do Organizacji Narodów Zjednoczonych z 2017 roku naukowcy i eksperci od robotyki oraz sztucznej inteligencji określają autonomiczne uzbrojenie mianem „trzeciej rewolucji na polu walki”. W historii wojskowości za pierwszą z nich jest uważane wynalezienie prochu strzelniczego. Drugą stał się moment zbudowania bomby atomowej. Rezolucję proponującą prewencyjny zakaz produkcji broni typu LAW wydał niedawno Parlament Europejski. Ostateczna decyzja ONZ w tej sprawie jeszcze nie zapadła.

Blokadzie sprzeciwiają się między innymi Izrael, Rosja, Korea Południowa oraz USA. Przedstawiciele tych państw chcą nadal poszukiwać potencjalnych zalet wdrożenia autonomicznego uzbrojenia, w tym ograniczania strat w ludności cywilnej. Eksperci nie są jednak przekonani, czy maszyny będą w stanie odróżniać bojowników od ludzi.

400 programów budowy autonomicznych żołnierzy

Tymczasem na całym świecie istnieje już blisko 400 programów zakładających budowę autonomicznych systemów uzbrojenia i robotów militarnych. Swoje rozwiązania w tym zakresie opracowują między innymi Chiny, Francja, Izrael, Wielka Brytania oraz USA. O postępach w tej dziedzinie donoszą też Rosjanie. Poza czołgiem Uran-6 przystosowanym do detonowania min lądowych, na polu walki (w Syrii) był już testowany autonomiczny czołg Uran-9.

Problem z zaangażowaniem SI w tematykę wojskową mają również giganci świata technologii. Z końcem roku z udziału w projekcie amerykańskiego Departamentu Obrony o nazwie Maven wycofała się firma Google. Koncern miał pomagać w analizie zdjęć pochodzących ze zdalnie sterowanych dronów wojskowych. Presję wywołała nie tylko zewnętrzna fala krytyki. Udziału w pracach ze względów etycznych odmówiła również część pracowników firmy.

Tymczasem do pierwszych misji szykuje się już bezzałogowy Sea Hunter, zaprojektowany przez agencję DARPA, autonomiczny statek do tropienia elektrycznych okrętów podwodnych. Jak tłumaczy szef projektu Scott Littlefield, to właśnie aspekt autonomii był dla twórców największym technologicznym wyzwaniem. Przede wszystkim Sea Hunter musi przestrzegać Międzynarodowych Przepisów o Zapobieganiu Zderzeniom na Morzu. Między innymi chodzi o to, by poruszający się innymi obiektami pływającymi bezbłędnie odczytywali jego intencje (ma się zachowywać jak statek kontrolowany przez człowieka).

Sea Hunter stanowi amerykańską odpowiedź na potencjalne podwodne zagrożenie ze strony Chin i Rosji i jednocześnie dzierży tytuł największego bezzałogowego okrętu na świecie. Zasięg 10 tys. mil morskich (19 tys. km) umożliwia mu śledzenie podejrzanych jednostek nawet przez trzy miesiące. Zbudowanie prototypu wiązało się z kosztem 23 mln dolarów, ale używanie okrętu będzie stosunkowo tanie w porównaniu do tradycyjnych statków (około 15-20 tys. dolarów dziennie).