W skład AI Red Team wchodzą pracownicy Facebooka, który płaci im za… ogłupianie inteligentnych systemów firmy

Od kilkunastu miesięcy „na tyłach” serwisu społecznościowego Marka Zuckerberga działają dywersanci z „czerwonego zespołu SI”. Facebook chce lepiej rozumieć luki i martwe punkty jego systemów sztucznej inteligencji. Inne duże firmy i organizacje, w tym Microsoft, Google i podmioty rządowe, formują podobne grupy.

Facebook w ostatnich latach wiele wysiłku poświęcił na implementowanie SI do różnych zadań ważnych dla działania serwisu – rozpoznawania i stosownego oznaczania treści obrazów (czy to człowiek, dziecko czy kot), tekstu czy personalizacji reklam.

W 2013 roku Yann LeCun, jeden z czołowych autorytetów w dziedzinie głębokiego uczenia się, podjął pracę u Zuckerberga, aby opracować systemy SI na skalę, która byłaby prawie niemożliwa w 99 procentach światowych laboratoriów SI. Od tego czasu Facebook rozszerzył swój dział SI – zwany FAIR (Facebook AI Research) – na całym świecie. Dziś to 300 pełnoetatowych światowej klasy inżynierów i naukowców z biurami FAIR w Seattle, Pittsburghu, Menlo Park, Nowym Jorku, Bostonie, Montrealu, Paryżu, Londynie i Tel Awiwie – wszystkie zatrudniają najlepszych badaczy w tej dziedzinie.

Problemy z inteligencją

Ale jeśli systemy SI zawiodą na większą skalę, Facebook będzie miał duży problem. A te zaliczyły już kilka mniejszych lub większych wpadek – np. w lipcu 2019 r. platforma miała kłopoty ze zdjęciami; wiele nie pojawiło się na Facebooku. Zamiast nich wyświetlały się ramki obrazów, którym towarzyszyły generowane przez uczenie maszynowe tagi opisujące to, co według SI firmy było na zdjęciach (np. „obraz może zawierać: drzewo, niebo, plener, przyroda, kot, ludzie stojący”).

Inny przykład? We wrześniu specjalistom od cyberbezpieczeństwa udało się odnaleźć bazy danych, które zawierały numery ID użytkowników Facebooka – po których bardzo łatwo ustalić ich nazwiska – oraz powiązane z ich kontami numery telefonów. Znalazło się w nich aż 419 milionów numerów, najwięcej użytkowników z USA (133 miliony) i Wietnamu (50 milionów). Na dodatek w grudniu 2019 roku doszło do kolejnego wycieku. Łącznie w odkrytej w darknecie bazie były dane 267 milionów użytkowników, w większości z USA. Eksperci uważają, że informacje w tej bazie zostały zgromadzone za pomocą tzw. scrapingu, czyli przeszukiwania stron internetowych przez specjalne boty, a Facebook zarzekał się, że dane zostały zgromadzone już wcześniej, zanim jeszcze zaczął wnikliwiej badać swoje zabezpieczenia.

Zespół badaczy Facebooka zbudował analogiczną do portalu platformę, wirtualny „plac zabaw” dla legalnych hakerów firmy

Żeby zminimalizować ryzyko takich błędów i możliwych ataków hakerskich, Facebook postanowił poddawać swoje systemy ciężkim próbom. Dlatego pracownicy portalu z grupy AI Red Team bawią się w napastników. Szukają luk w zabezpieczeniach i badają mechanizmy obronne. Czerwonym zespołem SI Facebooka kieruje Cristian Canton, ekspert w dziedzinie widzenia komputerowego.

Od siedmiu lat Facebook stara się zdobyć pozycję lidera w dziedzinie sztucznej inteligencji, a Canton, który zaczął przygodę z firmą w 2017 roku, pracował nad filtrowaniem obrazu za pomocą SI w celu wykrywania zabronionych treści, takich jak pornografia dziecięca i przemoc. Ale nie do końca był pewien, jak dokładnie algorytmy analizują niedozwolone obrazy. A tych jest bez liku.

Od początku istnienia Facebooka (luty 2004) na platformę przesłano ponad 250 miliardów zdjęć. To przekłada się średnio na około 35 milionów każdego dnia. Facebook jest również właścicielem Instagrama, na który od samego początku (2010) przesłano około 40 miliardów zdjęć i filmów – każdego dnia średnio około 95 milionów.

Hakerzy na placu zabaw

W 2018 roku FB zorganizował trzydniowy risk-a-thon, w którym pracownicy firmy rywalizowali ze sobą w znajdywaniu potknięć systemu. Znaleźli sposoby m.in. na zmylenie automatycznych filtrów mowy nienawiści (używanie różnych języków w postach zawierających mowę nienawiści sprawiało, że filtry stawały się na nią ślepe) czy na publikowanie pornografii na Instagramie.

Dlatego Canton podjął decyzję o ulepszeniu sztucznej inteligencji portalu, zaczynając od systemu moderacji. Na te potrzeby inny zespół badaczy Facebooka zbudował analogiczną do portalu platformę o nazwie WW, wirtualny „plac zabaw” dla legalnych hakerów firmy. Badają oni zabezpieczenia w dystrybucji treści związanych m.in. z handlem narkotykami czy rozpowszechnianiem deepfakes, obrazów generowanych przy użyciu sztucznej inteligencji, które wyglądają, jakby były prawdziwe.

Czerwony zespół Facebooka rozpoczął projekt o nazwie Deepfakes Detection Challenge, aby przyspieszyć postęp w wykrywaniu filmów generowanych przez SI. Czterem tysiącom aktorów zapłacono za występy w filmach, które specjaliści Facebooka przerobili następnie z użyciem technologii deepfakes. Programiści mieli stworzyć taką SI, która mogłaby to wykryć. Wyzwanie podjęło ponad 2 tysiące uczestników, którzy zgłosili ponad 35 tysięcy modeli. Niestety, jak pisaliśmy w czerwcu, najlepszy wypracowany algorytm, bazujący wyłącznie na przerobionych filmach dostarczonych przez Facebooka, wykazał się w tym zadaniu zaledwie 65-procentową skutecznością. Problem nie został rozwiązany mimo sporych wydatków i współpracy z naukowcami z różnych uniwersytetów.

Teraz AI Red Team zajmuje się dezinformacją i klasyfikatorami reklam politycznych – do końca wyborów prezydenckich w Stanach Zjednoczonych (listopad 2020) jest coraz bliżej, a firma nie odstąpiła od publikacji wyborczych i politycznych klipów i postów, więc ewentualne potknięcia na tym polu mogą mieć dla Facebooka przykre konsekwencje.

Rosnące inwestycje w bezpieczeństwo sztucznej inteligencji to znak, że Facebook, Google i inne firmy coraz intensywniej myślą o etycznych konsekwencjach wdrażania SI. Istniejąca technologia, mimo że coraz bardziej wyrafinowana, jest wciąż ograniczona i nieelastyczna i trzeba się jej pilnie przyglądać zarówno pod kątem błędów wewnętrznych, jak i zagrożenia atakami z zewnątrz.