Brytyjski wywiad musi bardziej wykorzystywać sztuczną inteligencję – twierdzą eksperci. Wrogowie już to robią. Problemem pozostaje kwestia obaw o prywatność i prawa człowieka

W powieściach szpiegowskich Iana Fleminga o najsłynniejszym agencie świata ze świecą szukać odniesień do sztucznej inteligencji. Cóż, Fleming rozpoczął opisywanie przygód Jamesa Bonda w 1953 r., czyli na rok przed śmiercią Alana Turinga – jednego z ojców SI (też poddanego Jej Królewskiej Mości). Najwyraźniej w latach 50. XX wieku zainteresowanie zdolnościami maszyny do opanowania przez nią umiejętności myślenia w sposób podobny do ludzkiego było niewyobrażalne nawet w pracy szpiega, którym Fleming był zawodowo, zanim zajął się powieściopisarstwem.

Na szczęście twórcy adaptacji filmowych jego książek wyposażali agenta 007 w coraz to nowsze, mniej lub bardziej inteligentne zdobycze techniki.

Ale w rzeczywistości sprawa jest poważna i nie ogranicza się do gadżetów. W XXI wieku brytyjskie służby wywiadowcze stoją przed decyzją, jak skutecznie wprowadzić do swojego arsenału sztuczną inteligencję.

Raport RUSI

Centrala Łączności Rządowej GCHQ (czyli brytyjski wywiad elektroniczny) poprosiła znany niezależny brytyjski think tank Royal United Services Institute for Defence and Security Studies (RUSI) o zbadanie potencjału wykorzystania sztucznej inteligencji w celu zwiększenia bezpieczeństwa narodowego. Raport ten, pod którym podpisali się Alexander Babuta, Marion Oswald i Ardi Janjeva, został niedawno opublikowany. Ustalenia RUSI opierają się na dogłębnych konsultacjach zarówno z osobami, jak i instytucjami brytyjskimi zajmującymi się bezpieczeństwem, organami ścigania, firmami z sektora prywatnego, ekspertami akademickimi i prawnymi oraz przedstawicielami społeczeństwa obywatelskiego.

Badanie wykazało, że SI oferuje brytyjskim służbom zajmującym się bezpieczeństwem narodowym wiele możliwości poprawy wydajności i skuteczności istniejących procesów. Metody sztucznej inteligencji i uczenia maszynowego mogą pomóc szybko uzyskiwać informacje z dużych, różnorodnych zestawów danych i identyfikować powiązania, które w innych przypadku byłyby niezauważone przez ekspertów.

Trzy elementy tarczy

Brytyjskie służby mogłyby skorzystać z elementów sztucznej inteligencji w trzech podstawowych obszarach.

Pierwszy to automatyzacja administracyjnych procesów organizacyjnych i związane z tym zwiększenie wydajności w zarządzaniu danymi.

Drugi element to cyberbezpieczeństwo. Sztuczna inteligencja mogłaby identyfikować np. błędy i anomalie sieci lub złośliwe oprogramowanie i reagować na nietypowe zachowania w czasie rzeczywistym.

Trzeci obszar to tzw. augmented intelligence, czyli rozszerzona inteligencja. Ma ona na celu wsparcie, a nie zastąpienie człowieka (ostatnio pisaliśmy o podobnym podejściu w wypadku amerykańskiej armii). Tym samym miałaby być wykorzystana do analizy wywiadowczej, którą dziś przeprowadzają agenci tajnych służb osobiście lub z wykorzystaniem prostych rozwiązań informatycznych. Raport RUSI zwraca tu uwagę m.in. na takie technologie wsparcia, jak: przetwarzanie języka naturalnego (NLP), analiza audiowizualna, w tym tłumaczenie maszynowe, identyfikacja rozmówcy, rozpoznawanie obiektów, analiza behawioralna.

Twórcy raportu zauważają również, że żaden ze wspomnianych przykładów użycia sztucznej inteligencji zidentyfikowanych w badaniach nie może zastąpić ludzkiej oceny. Systemy, które próbują „przewidzieć” ludzkie zachowanie na poziomie indywidualnym, mogą mieć ograniczoną wartość. Niemniej jednak zastosowanie systemów rozszerzonej inteligencji do zestawiania informacji z wielu źródeł i oznaczania znaczących pozycji danych do dalszej analizy przez ludzi prawdopodobnie poprawi wydajność pracy wywiadowczej.

Cyberbezpieczeństwo priorytetem

Autorzy z instytutu RUSI nie pozostawiają złudzeń. Wymóg dotyczący wykorzystania sztucznej inteligencji jest naglący, ponieważ już dziś trzeba zacząć przeciwdziałać zagrożeniom bezpieczeństwa narodowego Wielkiej Brytanii. Służby innych krajów czy terroryści mogą wykorzystać sztuczną inteligencję do ataku na Wielką Brytanię. Należy przy tym pamiętać, że wrogowie Korony nie muszą się obawiać o kwestie ram prawnych czy praw człowieka, a zatem zawsze mogą być o krok przed służbami.

Eksperci think tanku chłodzą jednak głowy rozpalone wyobrażeniami o SI jak o metodzie, która przewidzi ruchy terrorystów czy wskaże, kto może być niebezpieczny dla społeczeństwa, jak to widzimy w wielu w filmach.

Raport kładzie nacisk na cyberzagrożenia, uznając je za jeden z kluczowych aspektów bezpieczeństwa narodowego Wielkiej Brytanii. Zagrożenia dla bezpieczeństwa cyfrowego obejmują wykorzystanie szkodliwego oprogramowania, które często zmienia swoje rozpoznawalne cechy w celu uniknięcia wykrycia. Może być również elementem ataków socjotechnicznych w celu uderzenia w konkretne osoby.

Eksperci RUSI widzą też zagrożenia dla bezpieczeństwa politycznego, jak stosowanie technologii deepfake do generowania fałszywych informacji czy siania dezinformacji, by manipulować opinią publiczną lub ingerować w procesy wyborcze.

Z kolei zagrożenia dla bezpieczeństwa fizycznego są mniej bezpośrednim problemem. Jednak zwiększone zastosowanie technologii IoT (Internet of Things – internet rzeczy), pojazdów autonomicznych, „inteligentnych miast” i wzajemnie połączonej krytycznej infrastruktury krajowej stworzy wiele luk w zabezpieczeniach, które można wykorzystać do spowodowania szkód lub zakłóceń.

Kontrola służb a prawa człowieka

Co ciekawe, raport otwarcie wskazuje jednocześnie, że w kontekście bezpieczeństwa narodowego i uprawnień przyznanych brytyjskim agencjom wywiadowczym korzystanie z SI mogłoby spowodować zagrożenie bądź przynajmniej możliwość pojawienia się problemów związanych z prywatnością i prawami człowieka. Dlatego wszelkie metody SI, które miałyby pomagać zbierać i analizować dane, musiałyby być wdrożone i ocenione w ramach istniejących ram prawnych i regulacyjnych. Jeśli ich nie ma bądź są nieskuteczne, należałoby wprowadzić odpowiednie prawo i wytyczne dla służb.

Groźne ma być m.in. tzw. profilowanie algorytmiczne, które można uznać za bardziej ingerujące w prywatność człowieka niż analiza „ręczna” i mogłoby wzbudzać dalsze obawy związane z prawami człowieka, gdyby zostało uznane za niesprawiedliwie stronnicze lub dyskryminujące. Zabezpieczenie przed stronniczością (bias) maszyn będzie wymagało wewnętrznych procesów ciągłego śledzenia i ograniczania ryzyka dyskryminacji na wszystkich etapach projektu wykorzystania SI, a także zapewnienia różnorodności demograficznej w zespołach programistycznych – zastrzegają eksperci.

Z raportu wynika jeszcze jedno. Poziom zagrożenia wyciekiem czy naruszeniem danych nie musi być wyższy niż w przypadku przetwarzania danych w wykorzystaniem obecnie stosowanych rozwiązań, a SI może być jednym z elementów wsparcia i ochrony tych danych. Analiza informacji przez SI da służbom nowe możliwości do walki z cyberzagrożeniami. Będą to możliwości, które do tej pory były poza ich zasięgiem.

Kto weźmie odpowiedzialność?

Jak informują eksperci RUSI, wiele komentarzy wzbudziły obawy związane z naturą tzw. czarnych skrzynek (black box problem), czyli wykorzystaniu metod sztucznej inteligencji przy jednoczesnej utracie odpowiedzialności za proces decyzyjny (gdy znamy dane wejściowe i efekt działania algorytmu, ale nie znamy procesu „rozumowania” maszyny). Kogo obarczyć winą, jeśli system wskaże, że dane informacje okażą się błędne – człowieka czy maszynę? Jak zrozumieć proces decyzyjny zachodzący w programie komputerowym, aby wziąć za niego odpowiedzialność? Odpowiedzią na te zarzuty ma być stworzenie i zaprojektowanie systemu w taki sposób, aby eksperci mogli w łatwy sposób interpretować i krytycznie oceniać kluczowe informacje oraz zauważać niepewność związaną z obliczeniami maszyn.

Zdaniem autorów raportu sztuczna inteligencja ma potencjał, aby poprawić wiele aspektów pracy wywiadowczej. Pełne wykorzystanie tych możliwości wymaga jednak wypracowania pewnych norm i wytycznych, bez których działanie SI będzie nieskuteczne bądź nieetyczne. Raport wskazuje służbom szereg zaleceń, aby tak się nie stało, jednocześnie wskazując na zarzuty, nieścisłości czy obawy, jakie żywi wielu ekspertów. Jedynie współpraca pomiędzy służbami, instytucjami rządowymi, firmami IT oraz organizacjami obywatelskimi pozwoli wypracować model bezpieczny i skuteczny. Należy też bezwzględnie wyciągnąć wnioski z wszelkich doświadczeń wynikających z zastosowania sztucznej inteligencji w innych sektorach, np. w gospodarce.

Raport powstał dla instytucji rządowej, a przy jego tworzeniu eksperci z instytutu RUSI dostali możliwość kontaktu m.in. z przedstawicielami wywiadu. Stąd zapewne wytyczne wskazane w raporcie są znane służbom już od dawna. Nie wiadomo jednak, czy zostaną wdrożone, choć cytowany przez BBC nowy szef MI5, Ken McCallum, powiedział, że jednym z jego priorytetów będzie większe wykorzystanie technologii, w tym uczenia maszynowego.

Cały dokument dostępny jest TUTAJ.