Rozpoznawanie twarzy używane przez walijską policję jest niezgodne z prawem – orzekł Sąd Apelacyjny Wielkiej Brytanii. Technologia ta ma „fundamentalne wady” i narusza prawo do prywatności, o ochronie danych i antydyskryminacyjne
Czarne chmury nadciągnęły nad system wykorzystywany przez brytyjską policję zaraz po tym, jak Sąd Najwyższy zakazał używania algorytmów do oceny ryzyka wydawania wiz imigrantom.
Brytyjska policja dosyć szeroko testuje sztuczną inteligencję kojarzącą osoby obserwowane przez kamery z bazami danych przestępców i poszukiwanych. Oficjalnie zaczęło się to w 2017 roku w Południowej Walii, gdzie jednostki policji wdrożyły system o nazwie AFR Locate i sprawdzały jego działanie na kilku ważnych wydarzeniach, w tym meczach piłki nożnej.
Proces wytoczył w 2019 roku 37-letni Ed Bridges, mieszkaniec Cardiff. W swoim pozwie wskazał, że skanowanie jego twarzy w 2017 i 2018 roku było naruszeniem jego praw obywatelskich. Po raz pierwszy system uchwycił jego twarz w trakcie zakupów bożonarodzeniowych, rok później w trakcie protestów przeciw zbrojeniom nieopodal stadionu Motorpoint Arena w Cardiff.
Wspierany przez organizację broniącą praw człowieka Liberty poskarżył się na policję wskazując, że skanowanie jego twarzy wywołało u niego „niepokój”.
Sąd Apelacyjny uznał teraz, że program rozpoznawania twarzy Policji Południowej Walii jest niezgodny z prawem, a Liberty okrzyknęła zwycięstwo. To pierwszy na świecie wygrany proces wobec wykorzystania przez policję technologii rozpoznawania twarzy
Sprawę przed brytyjskim Sądem Najwyższym jesienią ub. roku przegrał. Wtedy sędziowie stwierdzili, że oprogramowanie stosowane przez policję nie jest niezgodne z prawem. Odwołał się jednak, a w trakcie trzydniowego posiedzenia Sądu Apelacyjnego w czerwcu br. prawnicy Bridgesa argumentowali, że technologia rozpoznawania twarzy koliduje z przepisami dotyczącymi prywatności i ochrony danych oraz jest potencjalnie dyskryminująca.
W efekcie Sąd Apelacyjny uznał teraz, że program rozpoznawania twarzy Policji Południowej Walii jest niezgodny z prawem, a Liberty okrzyknęła zwycięstwo. To pierwszy na świecie wygrany proces wobec wykorzystania przez policję technologii rozpoznawania twarzy.
W orzeczeniu sąd stwierdził, że nie jest jasne, kto może zostać umieszczony na liście do obserwacji, a kryteria określające, gdzie można rozmieścić kamery systemu, są również zbyt ogólne. Daje to zbyt dużą swobodę policjantom. Na dodatek AFR Locate nie zostało przebadane pod kątem uprzedzeń rasowych czy ze względu na płeć.
Tuż po wyroku Bridges wydał oświadczenie, w którym podkreślił, że jest „zachwycony” tym, że sąd stwierdził, iż „rozpoznawanie twarzy wyraźnie zagraża naszym prawom”. „Ta technologia jest natrętnym i dyskryminującym narzędziem masowego nadzoru. (…) Od trzech lat policja południowalijska używa go przeciwko setkom tysięcy z nas, bez naszej zgody, a często bez naszej wiedzy. Wszyscy powinniśmy mieć możliwość korzystania z naszej przestrzeni publicznej bez poddawania się opresyjnej inwigilacji”- zaznaczył.
Do orzeczenia odniósł się też niezależny urzędnik ds. kamer monitorujących (SCC) – komisarz powołany przez resort spraw wewnętrznych w 2012 roku.
– Z dużym zadowoleniem przyjmuję ustalenia sądu. Nie sądzę, aby wyrok był fatalny dla stosowania tej technologii, w rzeczywistości uważam, że przyjęcie nowych i zaawansowanych technologii jest ważnym elementem zapewniania obywatelom bezpieczeństwa. Ustala jednak jasne parametry dotyczące stosowania, regulacji i nadzoru prawnego” – oświadczył. Komisarz reguluje działanie jawnych systemów kamer monitorujących, takich jak CCTV, i wszystkiego, co jest z nimi połączone, np. algorytmów automatycznego rozpoznawania twarzy.
W 2013 roku brytyjski resort spraw wewnętrznych roku wydał Kodeks, ustanawiający 12 zasad przewodnich, których przestrzeganie zapewni proporcjonalne i skuteczne rozmieszczenie kamer monitorujących w celu wspierania społeczności, a nie ich szpiegowania. SCC odgrywa rolę w zachęcaniu do przestrzegania Kodeksu. W październiku 2018 roku komisarz wydał wytyczne dla wszystkich sił policyjnych w sprawie wdrożenia technologii automatycznego rozpoznawania twarzy, które stanowią uzupełnienie Kodeksu.
„Zastanowię się, w jaki sposób mogę zmienić swoje wytyczne, aby zapewnić, że siły policyjne są świadome potencjalnych stronniczości w systemach, a także rozważę wspólnie z producentami technologii, co więcej można zrobić, aby wyeliminować stronniczość” – oświadczył komisarz zaraz po zapadnięciu orzeczenia w sprawie Bridgesa.
Nie zakazało ono całkowicie korzystania z technologii rozpoznawania twarzy w Wielkiej Brytanii, ale zawęża zakres tego, co jest dozwolone i co organy ścigania muszą zrobić, aby zachować zgodność z prawami człowieka (walijska policja nie zamierza go kwestionować). Metropolitan Police w Londynie, która na początku tego roku wdrożyła podobny system, będzie musiała spełnić standardy określone w dzisiejszym orzeczeniu.
Inspiracja dla innych państw
Karolina Iwańska, prawniczka w Fundacji Panoptykon specjalizująca się w zagadnieniach związanych z prawami człowieka w kontekście nowych technologii, absolwentka Wydziału Prawa i Administracji Uniwersytetu Jagiellońskiego.
– Wyrok w sprawie systemów rozpoznawania twarzy przez walijską policję jest pierwszym tego typu wyrokiem na świecie i – choć wydany w Wielkiej Brytanii – może mieć wpływ na stosowanie tej technologii przez inne państwa. Kluczowe jest to, że sąd nie ograniczył się do stwierdzenia, że technologie automatycznego rozpoznawania twarzy naruszają wyłącznie prawo do prywatności, ale podkreślił, że naruszone jest także prawo do równego traktowania. Nie od dziś wiadomo, że algorytmy wykorzystywane przez „inteligentne” kamery, trenowane przede wszystkim na zdjęciach białych mężczyzn, o wiele częściej mylą się w przypadku kobiet czy osób o innym niż biały kolorze skóry, prowadząc do dyskryminacji.
W Fundacji Panoptykon stoimy na stanowisku, że masowe rozpoznawanie twarzy przez państwo powinno być zakazane, ponieważ zbyt mocno wkracza w podstawowe prawa obywatelskie. Brytyjski sąd co prawda nie zakazał z góry stosowania takich systemów w przyszłości, ale sformułował wyraźny obowiązek przeprowadzenia analizy algorytmów wykorzystywanych przez inteligentne kamery pod kątem dyskryminacji płciowej i rasowej, przed wdrożeniem systemu, i to nawet wdrożeniem pilotażowym. Ten standard powinien być inspiracją dla innych państw.