Zbrodni wojennych i przeciwko ludzkości. Bo dowodów w dobie telefonów komórkowych nie brakuje. Trzeba tylko odróżnić fałsz od prawdy

Nagrania, na których pociski uderzają w budynki mieszkalne, zdjęcia satelitarne miejsc, które wyglądają jak masowe groby, zdjęcie zakazanego międzynarodowymi konwencjami pocisku kasetowego. W dobie smartfonów, satelitów i internetu zbrodnie wojenne trudno jest ukryć.

Od dawna wiadomo, że analiza obrazów pomaga w walce z łamaniem międzynarodowego prawa i praw człowieka. Poświęcona jest temu książka Eyala Weizmana „Forensic Architecture” (co można przetłumaczyć jako „Architektura śledcza”). To jednocześnie nazwa zespołu badawczego na University of London, która tą tematyką się zajmuje.

Analizując obrazy satelitarne, można stwierdzić, czy drony uderzyły w zgrupowanie wojsk, czy w wioskę z cywilami. Analizując zdjęcia w mediach społecznościowych, można stwierdzić, z której strony nadleciał pocisk. Jeśli bomba spadła na szpital, być może był to błąd. Ale jeśli zniszczono kilkadziesiąt szpitali, jest to niehumanitarne i zakazane prawem działanie.

Ale im więcej dowodów, tym trudniejsza praca. Zdjęcie może się okazać manipulacją, pochodzić sprzed wielu lat, z innego miejsca, może być przerobione. Analizowanie dowodów to praca dla śledczych. W tym celu już cztery lata temu Amnesty International, międzynarodowa organizacja strzegąca praw człowieka, powołała Digital Verification Corps, czyli Korpus do spraw Weryfikacji Cyfrowej.

Korpus nie ma jednej siedziby. Działa na sześciu uczelniach na świecie (na uniwersytetach w Hongkongu, Berkeley, Toronto, Cambridge, Essex oraz Pretorii), których studenci mogą uczestniczyć w pracach międzynarodowego zespołu liczącego ponad setkę osób.

Jak tłumaczy sama organizacja, pomysł powstał jako sposób na dotarcie do wolontariuszy w nowych, cyfrowych czasach – pisanie listów, choć nadal ważne, w cyfrowej rzeczywistości już nie wystarczy. Zespół pozwala też organizacji szkolić działaczy praw człowieka z nowych narzędzi i technologii. Ale – co najważniejsze – ich praca pozwala konfrontować ze sobą sprzeczne dowody i weryfikować ich wiarygodność.

Oczywiście, pewności nie ma nigdy – wolontariusze nie byli na miejscu. Ale mogą pomóc stwierdzić, kto wrzucił nagranie lub zdjęcie do sieci. Mogą potwierdzić, że istnieją trzy różne nagrania uderzenia pocisku w ten sam dom zrobione z trzech różnych perspektyw. Uczą się też, jak wykorzystywać budowle lub konstrukcje widniejące w materiałach wizualnych do późniejszego ustalania lokalizacji zdarzenia na podstawie zdjęć satelitarnych.

Broń, której nie widać

Z pozoru to błahe czynności, ale mają niebagatelne znaczenie w orzekaniu o winie. Sąd skrupulatnie bada, czy przedstawione dowody są wiarygodne. Jeśli można potwierdzić, że nagranie pochodzi od naocznego świadka, a czas i lokalizacja się zgadzają – dowód zostanie przyjęty. Jeśli nie – nagranie będzie tylko poszlaką lub zostanie odrzucone.

Na przykład w 2017 roku brytyjski sąd orzekł, że pochodzące z mediów społecznościowych nagranie nie jest wystarczającym dowodem na winę Arabii Saudyjskiej w sprawie ataków na ludność cywilną w Jemenie, gdzie dwa lata wcześniej w Zabidzie trzy bomby spadły na centrum handlowe i przyniosły śmierć setek ludzi.

Ale niektóre zbrodnie wojenne są trudniejsze do udowodnienia niż inne. Pociski kasetowe są zakazane w ponad stu krajach, które podpisały konwencję o zakazie ich stosowania. Nie zmienia to faktu, że bywają używane. Organizacje praw człowieka podejrzewają, że robi to Arabia Saudyjska w Jemenie. Są to prawdopodobnie bomby BLU-63 produkcji brytyjskiej. Jeśli udałoby się to udowodnić, w sądzie, Wielka Brytania musiałaby przestała sprzedawać taką broń za granicę. Dowody jednak musiałyby być jednoznaczne. Trwa więc poszukiwanie lepszych argumentów, które mogą przekonać sędziów, że bomby rzeczywiście były produkcji brytyjskiej.

Sęk w tym, że skoro takie pociski są zakazane, niezmiernie trudno je zdobyć i zidentyfikować. Z pomocą przyszła sztuczna inteligencja, opisuje „MIT Technology Review”. Podjęli się tego badacze z brytyjskiego Swansea University wraz z organizacją GLAN (Global Legal Action Network), od 2017 roku gromadzi bazę danych ataków na ludność cywilną w Jemenie.

Egzemplarz pocisku BLU-63 znaleziono w Imperial War Museum. Na tej podstawie stworzono dokładny trójwymiarowy model, a potem nauczono algorytm sztucznej inteligencji rozpoznawać pocisk na zdjęciach. Nawet po wskazaniu przez algorytm podejrzane zdjęcie musi zweryfikować oko eksperta. Ale znacznie przyspiesza to pracę śledczych.

Archiwum zawiera prawie 6 miliardów klatek filmów dokumentujących ataki na Jemen. Łatwo policzyć, że przejrzenie tego przez ludzi zajęłoby lata. Systemowi uczenia maszynowego zajmie, wedle szacunków, miesiąc.

E-LAMP rozjaśnia

Poszukiwania śladów bomb kasetowych nie są pierwszym przypadkiem, gdy do przeglądania materiałów audiowizualnych organizacje praw człowieka wykorzystują maszynowe algorytmy. W dobie mediów społecznościowych i wszechobecnych telefonów komórkowych z cyfrowymi aparatami ilość danych do przejrzenia jest olbrzymia. Amnesty International na przykład dysponuje 1 terabajtem danych dotyczących naruszeń praw człowieka w Myanmie (dawniej Birma). Tam, gdzie w grę wchodzą olbrzymie ilości danych, sztuczna inteligencja jest niezwykle przydatna.

Badacze z amerykańskiego Carnegie Mellon University stworzyli oparte na maszynowych algorytmach zestaw programów nazwanych Human Rights Video Analysis Toolbox. Jedno z nich, E-LAMP, pozwala wyszukiwać na filmach określone obiekty (na przykład pojazdy wojskowe, broń), zdarzenia (takie jak: przejazd kolumny czołgów, eksplozje, zawalenia się budynków), zarejestrowane na filmach teksty czy ludzkie zachowania (ucieczka, krzyk, płacz). Może też odróżnić cywilów od uzbrojonych żołnierzy, dorosłych od dzieci. A także rozpoznać zwłoki.

Narzędzie było wykorzystywane do analizy materiałów z Syrii, gdzie od 2011 trwa wojna domowa między siłami prezydenta Baszara al-Asada a zbrojną opozycją. Nigdy jednak zdobyte w ten sposób dowody, na przykład ataku na ludność cywilną, nie zostały wykorzystane w sądzie.

Sprawa o wykorzystanie brytyjskich bomb kasetowych w Jemenie będzie pierwszą, gdy materiał zdobyty dzięki sztucznej inteligencji będzie dowodem w sądzie na zbrodnie wojenne. W anglosaskim systemie prawnym, opartym na precedensach, może być przełomowa.

Organizacje praw człowieka komentują, że to dziedzina nowa i obiecująca. Armie świata chętnie wykorzystują nowe technologie. Teraz sztuczna inteligencja może pilnować, czy prowadzą działania zgodnie z międzynarodowym prawem. To nowa broń w walce o prawa człowieka.