Armia botów udaje użytkowników i szuka błędów w nowych wersjach oprogramowania. Ale sieci neuronowe mogą symulować już zachowania całych społeczeństw
Czy sztuczna inteligencja może zastąpić użytkowników? W testach oprogramowania Facebooka może. Armia sterowanych algorytmami sztucznej inteligencji botów stara się wyłudzić dane innych botów, publikować niedozwolone treści i oszukiwać. Wszystko po to, by sprawdzić, czy oprogramowanie tej społecznościowej platformy jest bezpieczne.
Zwykle oprogramowanie testują użytkownicy. Ale Facebook jest dość szczególnym programem – wiele zależy weń od interakcji użytkowników, których ma zresztą już 2,5 miliarda. Komentujemy posty, pozostawiamy polubienia, wysyłamy wiadomości. Jak szacuje sama firma, około jednej czwartej błędów wychodzi na jaw dopiero przy interakcjach pomiędzy użytkownikami.
Żeby móc zasymulować to na większą skalę, internetowy gigant musiałby zatrudnić kilka tysięcy osób. Taniej jest zatrudnić boty. Gdy któryś odkryje błąd w oprogramowaniu lub jakieś wrażliwe miejsce, wysyła rekomendację zmian programistom Facebooka. Mogą przetestować zmiany, zanim wprowadzą je do wersji, której wszyscy używamy.
Boty „prześladowcy” wykorzystują algorytmy uczenia maszynowego (ze wzmocnieniem, czyli są nagradzane za odpowiednie działanie). Próbują wszystkiego, na przykład dostać się do prywatnych zdjęć innych użytkowników albo uzyskać inne dane, do których dostęp został ograniczony. Boty odgrywające rolę ofiar są zwykłymi algorytmami. Nie muszą się bronić, wystarczy, że informacja o błędzie dotrze do programistów, którzy go naprawią. Testy pozwalają na symulacje tysięcy użytkowników naraz.
W przyszłości Facebook chce w ten sposób sprawdzać, czy nowe wersje oprogramowania tej społecznościowej platformy nie wpływają na zaangażowanie użytkowników albo inne ważne dla firmy parametry.
Dokładny opis technologii Facebook publikuje w PDFie.
Nie tylko Facebook
Kilka dni wcześniej na swoim blogu Microsoft chwalił się tym, jak jego sztuczna inteligencja wyszukuje błędy w oprogramowaniu. Scott Christiansen (Senior Security Program Manager Microsoftu) przyznaje bez ogródek, że 47 tysięcy programistów firmy generuje co miesiąc około 30 tysięcy błędów.
Dla porównania, Facebook przyznaje, że zatrudnia mniej więcej jednego programistę na milion użytkowników platformy, co dawałoby liczbę 2,5 tysiąca programistów – zaś podobny poziom błędów w oprogramowaniu dawałby mniej więcej 2 tysiące błędów miesięcznie. Problem Microsoftu jest więc o rząd wielkości większy. Jak sobie z tym radzi firma?
Armia sterowanych algorytmami sztucznej inteligencji botów stara się wyłudzić dane innych botów, publikować niedozwolone treści i oszukiwać. Wszystko po to, by sprawdzić, czy oprogramowanie tej społecznościowej platformy jest bezpieczne
Również z pomocą sztucznej inteligencji. Wykorzystuje dane historyczne z dwóch ostatnich dziesięcioleci – w sumie 13 milionów pozycji w bazie danych – w modelu opartym na uczeniu maszynowym. Sieć neuronowa może oddzielić błędy zagrażające bezpieczeństwu od tych, które nie zagrażają w 99 proc. przypadków. Służy głównie do identyfikacji tego, które błędy programiści mają naprawić w pierwszej kolejności.
Tu jednak nikt nie symuluje użytkowników. Tymczasem na jednym z norweskich uniwersytetów działa laboratorium, które za pomocą sztucznej inteligencji może symulować całe miasta – a nawet niewielkie kraje.
Społeczeństwo botów w sieci
Jeśli można za pomocą botów symulować zachowanie ludzi w społecznościowym portalu, to może można przewidywać ich zachowania w ogóle? Oczywiście. Od lat pracuje nad tym Center for Modeling Social Systems (Centrum Modelowania Systemów Społecznych) norweskiego uniwersytetu w Agder. Otacza je pewna aura tajemnicy.
Może dlatego, że jego szef, F. LeRon Shults, nie udziela wywiadów. Poproszony o krótką wypowiedź dla naszego portalu odesłał nas do swoich prac naukowych, wymawiając się brakiem czasu. W dość lakonicznej ubiegłorocznej wypowiedzi dla tygodnika „New Scientist”, opowiadał o symulowaniu społecznym tak:
„Nasi agenci są poznawczo złożeni. To symulowani ludzie, którzy mają płeć, wiek i osobowości. Mogą zawierać związki, mieć dzieci, rozwodzić się. Mogą znajdować prace i je tracić, dołączać do grup, mogą umierać. Mogą mieć przekonania religijne. Są społeczni w taki sposób jak ludzie. Wchodzą ze sobą w relacje w sieciach [zależności] społecznych. Mogą się od siebie uczyć, reagować na siebie i na środowisko jako całość”. To MAAI – multi agent artificial intelligence, czyli wieloagentowa sztuczna inteligencja.
To, trzeba przyznać, brzmi znacznie ciekawiej, niż symulowanie użytkowników Facebooka. Ale do czego może służyć? Systemy wieloagentowe stosuje się wszędzie tam, gdzie problemy są złożone i rozporoszone. Należą do nich wyszukiwanie informacji w sieci, zarządzanie sieciami (np. telekomunikacyjnymi), symulacje rynków, czy kontrola ruchu lotniczego.
Mogą posłużyć też do symulacji zachowań całych ludzkich społeczności. MAAI wykorzystywane są już dziś, żeby tworzyć modele społeczne i przewidzieć skutki różnych wydarzeń. Co się stanie, gdy do protestanckiej i zlaicyzowanej Norwegii dotrze grupa 20 tysięcy Syryjskich uchodźców, głównie religijnych muzułmanów? Czy ich integracja przebiegnie pomyślnie? Jak można zapobiec narastaniu wrogości wobec nich? Na to wszystko może odpowiedzieć już sztuczna inteligencja, na przykład tym właśnie zajmuje się centrum uniwersyteckie w Agder.
Zakupy klientów i głosy wyborców
Podobne technologie wieloagentowej sztucznej inteligencji stosuje już kilka centrów na świecie, na przykład Centre for Research in Social Simulation brytyjskiego University of Surrey, czy the Virginia Modeling, Analysis and Simulation Center na Old Dominion University w amerykańskiej Wirginii. Takie systemy sztucznej inteligencji mogą na razie przewidzieć zachowania społeczeństw wielkości mniej więcej kilku milionów ludzi.
Skoro można przewidzieć aż tyle, nie powinniśmy się dziwić, że sztuczna inteligencja autorstwa badaczy z OPI PIB* przewidziała wynik wyborów parlamentarnych na podstawie komentarzy w jednym z internetowych portali.
Lubimy o sobie myśleć, jako o jednostkach. Mamy swoje pragnienia, cele i motywacje. Fakt, że można ludzkie zachowania jakoś przewidzieć nieco nas niepokoi. Ale przecież nie przejmujemy się tym, gdy bezustannie robią to Facebook i Google, by podsuwać nam reklamy zgodne z naszymi preferencjami.
*OPI PIB jest wydawcą portalu Sztucznainteligencja.org.pl.