Pedofile grasują w sieci i nikt tego nie monitoruje. A dane są przerażające – twierdzi Michał Wroczyński, CEO & co-founder w Samurai Labs, w rozmowie z Tomaszem Jurczakiem
Tomasz Jurczak: Pedofile grasują w sieci, większość bezkarnie. Da się jakoś oszacować skalę zagrożenia?
Michał Wroczyński*: Skala problemu jest trudna do oszacowania, bo nikt tego nie monitoruje. Ogólne wyobrażenie na jej temat możemy czerpać z badań pośrednich, które analizują zachowania dzieci w internecie. Tutaj dane te są przerażające: 23,1 procent młodocianych spotkało się z dorosłym, którego poznało w internecie, a 61,4 procent z nich nie powiedziało o tym rodzicom!
Mówimy tu o badaniach polskich, przeprowadzonych przez NASK [Naukowa i Akademicka Sieć Komputerowa – red.] w 2016 roku. Dane FBI mówią, że w każdej sekundzie w sieci grasuje 750 tysięcy drapieżników seksualnych, a co roku co najmniej 28 procent przypadków wykorzystywania seksualnego doprowadziło ofiarę do próby samobójczej. To dane jeszcze sprzed pandemii. Lockdown sprawił, że skala korzystania z internetu przez dzieci wzrosła radykalnie.
Jak technologia może pomóc chronić dzieci? Zazwyczaj rodzice albo pozwalają swoim pociechom korzystać z niej bez większej kontroli, albo stosują restrykcje.
Rozwój technologii stworzył wiele nieznanych wcześniej problemów. Dawniej, gdy na podwórku znalazł się jeden osiłek, który terroryzował całe osiedle, można było go unikać – iść do domu albo schronić się w grupie. Dziś za sprawą smartfonów dzieciaki są narażone na przemoc 24 godziny na dobę. Nie dziwię się rodzicom, którzy ograniczają im dostęp do sieci. Robią to z troski, tyle że dzieci i tak muszą korzystać z internetu, bo mamy nauczanie zdalne.
Jak działa wasz Samurai? Analizuje zdania, kluczowe słowa? Jest wiele takich systemów.
Ale mamy nad nimi przewagę, bo – po pierwsze – nasz system reaguje na wykryte zagrożenia w czasie rzeczywistym. Cóż z tego, że moderator wykryje podejrzane zachowanie dwa tygodnie po fakcie? W tym czasie może się przecież wydarzyć dużo złego. Po drugie, nasz internetowy strażnik nie tylko rozumie kontekst pojedynczej wypowiedzi, ale swoje decyzje podejmuje w oparciu o analizę całych rozmów. Ma to ogromne znaczenie w przypadku wykrywania pedofilii, gdzie analiza słów kluczowych nic nie daje, a cały proces określany jako child grooming, czyli budowy więzi emocjonalnej z dzieckiem, może trwać wiele dni bądź tygodni. Jeżeli Samurai wykryje tego typu zachowania, automatycznie blokuje rozmowę, a informację o podejrzanym zgłasza odpowiednim służbom.
Samurai potrafi coś więcej?
Potrafi. Możemy też walczyć z nękaniem w sieci albo reagować w razie zagrożenia samobójstwem. W każdym z tych przypadków scenariusz postępowania będzie adekwatny do problemu. Kiedy Samurai wykryje, że dziecko przejawia skłonności samobójcze, może połączyć je z osobami, które są w stanie skutecznie pomóc.
Sprawdziliście już swój system w realnym świecie czy tylko w symulowanych warunkach?
Nie upubliczniamy konkretnych danych na temat działania Samuraia. Mogę jedynie powiedzieć, że jest najskuteczniejszym systemem działającym w czasie rzeczywistym, który wykrywa i reaguje na przemoc w sieci. Mieliśmy okazję przetestować go na Reddicie, jednym z największych forów w sieci. Działał tam nasz chatbot James, którego zadaniem było wykrywanie i automatyczne reagowanie na komentarze atakujące i obrażające pozostałych członków społeczności. Kiedy ktoś atakował drugą osobę, James odpowiadał na wpis, mówiąc na przykład tak: „Hej, czy zdajesz sobie sprawę, że twój wpis mógł kogoś zranić?”. James uczył się, które z takich ostrzeżeń są w danej sytuacji najskuteczniejsze. Samo jego wkraczanie do dyskusji pozwoliło obniżyć przemoc o ponad 20 procent. A kiedy mógł blokować „niereformowalnych” agresorów, agresja spadła o ponad 40 procent.
Moderowanie treści związanych z cyberprzemocą nie jest zadaniem dla ludzi. Powinniśmy to oddać w ręce sztucznej inteligencji
Jak nauczyć system, by wykrywał podejrzane sytuacje?
Dzięki połączeniu uczenia maszynowego z wnioskowaniem symbolicznym Samurai potrzebuje niewiele danych do nauki, bo przede wszystkim potrafi wykorzystywać wiedzę ekspertów z psychologii czy lingwistyki. Zamiast pokazywać mu miliony przykładów ataków, uczymy go, w jaki sposób ludzie mogą używać języka naturalnego do atakowania innych. To szczególnie istotne wtedy, gdy danych po prostu nie ma i nie będzie.
Niedawno otrzymaliśmy dostęp do bezcennego zbioru danych – kilkuset autentycznych listów samobójczych w archiwach spraw sądowych. Dla systemów opartych o uczenie maszynowe to bardzo niewiele, ale dzięki analizie tych listów i wiedzy eksperckiej byliśmy w stanie zbudować model potrafiący wykrywać nie tylko prawdziwe intencje samobójcze, ale również identyfikować poszczególne etapy podejmowania decyzji o odebraniu sobie życia.
Czy działając w USA, pracowaliście z amerykańskimi służbami, jak FBI? Ciekawi mnie, czy wasza firma będzie współpracowała w Polsce z instytucjami walczącymi z zagrożeniami wobec dzieci.
Walkę z pedofilią zaczęliśmy ponad dziesięć lat temu. Na zlecenie Komendy Głównej Policji śledziliśmy wtedy pedofilów grasujących na polskich czatach. To naturalne, że w przypadku popełnienia przestępstwa czy zagrożenia samobójstwem współpracujemy ze służbami i organizacjami pomagającymi ludziom. Kilka miesięcy temu wraz z Hate Labem, organizacją działającą przy uniwersytecie w Cardiff, wspieraliśmy brytyjską policję w wykrywaniu przemocy wobec Polaków i innych mniejszości podczas brexitu. Tam, gdzie dzieje się krzywda, zawsze staramy się pomóc, niezależnie od tego, czy chodzi o współpracę FBI, czy z brytyjską Metropolitan Police Service.
Jaka jest przyszłość inteligentnych systemów walczących z hejtem, agresją, przestępstwami? W którą stronę idzie Samurai?
Ta technologia to pionierskie podejście do sztucznej inteligencji. DARPA [Defense Advanced Research Projects Agency, Agencja Zaawansowanych Projektów Badawczych w Dziedzinie Obronności – red.] nazywa je trzecią falą SI. Polega ono na połączeniu uczenia maszynowego z wnioskowaniem opartym o wiedzę ekspercką. Obecne systemy tzw. drugiej fali, oparte o samo uczenie maszynowe, świetnie radzą sobie z przetwarzaniem sygnału, doskonale rozpoznają mowę, bez problemu potrafią odróżnić kota od psa na zdjęciu, ale nie radzą już sobie ze zrozumieniem kontekstu wypowiedzi czy odróżnianiem opinii od agresji. Samurai ograniczył wskaźnik fałszywych alarmów do poziomu umożliwiającego automatyczną reakcję. Udowodnił, że może być skutecznym moderatorem, który podejmuje słuszne decyzje w ułamku sekundy. To przyszłość bezpieczeństwa w sieci.
Sztuczna inteligencja to jedyna skuteczna broń przeciw hejtowi i pedofilom w internecie?
Liczba wypowiedzi generowanych w każdej sekundzie na forach, portalach społecznościowych czy w grach jest gigantyczna. Żaden moderator nie jest w stanie reagować na wszystkie złe rzeczy, które dzieją się w sieci. Facebook, choć zatrudnia kilkadziesiąt tysięcy moderatorów na całym świecie, przyznaje, że potrzebuje około dziesięciu lat na opracowanie systemu, który pozwoli na skuteczną moderację treści w czasie rzeczywistym. To obrazuje skalę problemu.
Z dnia na dzień pięć i pół miliona polskich uczniów przeniosło całe swoje życie do sieci – a za nimi podążyły drapieżniki
Do tego dochodzi niezwykle ważny aspekt ludzki. W maju Facebook zgodził się wypłacić moderatorom 52 milionów dolarów odszkodowania za uszczerbek na zdrowiu psychicznym. To dowodzi, że moderowanie treści związanych z cyberprzemocą nie jest zadaniem dla ludzi. Powinniśmy to oddać w ręce sztucznej inteligencji.
Dlaczego dopiero teraz decydujecie się na polską wersję Samuraia?
Zaczęliśmy od angielskiego z uwagi na możliwość skalowania rozwiązania oraz dostępność różnych danych wejściowych. Ale to wcale nie oznacza, że mieliśmy łatwiej. Dla systemów opartych o rozumienie gramatyki język polski jest znacznie prostszy. To, co ludziom sprawia duży kłopot, czyli fleksja, komputerom pozwala ujednoznacznić wypowiedź. W angielskim kluczowe znaczenie ma pozycja słowa w zdaniu, a identycznie wyglądające słowo może mieć dziesiątki różnych znaczeń. Jedną z przyczyn, dla których zaczęliśmy pracę nad wersją w języku polskim, była pandemia. Z dnia na dzień pięć i pół miliona polskich uczniów przeniosło całe swoje życie do sieci – a za nimi podążyły drapieżniki. A ponieważ wszystko wskazuje na to, że liczba prób samobójczych wzrośnie, postanowiliśmy przyspieszyć prace nad polską wersją systemu, którą i tak mieliśmy zrealizować.
Kiedy ją odpalacie?
Rozwiązanie chroniące polskie dzieci jest już na ukończeniu, w najbliższych tygodniach przejdzie fazę testów. Naszym celem jest ochrona dzieci i przed rosnącą przemocą w internecie, i przed przestępcami seksualnymi. Dziś polskie dzieci narażone są na zagrożenia jak nigdy wcześniej. Chcemy pomóc im bezpiecznie korzystać z internetu.
Plany na przyszłość?
Rozwijamy się bardzo intensywnie, powiększamy zespół. Szukamy inżynierów, lingwistów komputerowych, programistów, by dalej rozwijać naszą technologię, bo chcemy wejść na rynek globalny.
*Michał Wroczyński – lekarz, terapeuta, kognitywista i futurolog. Od ponad 15 lat tworzy systemy sztucznej inteligencji i rozumienia języka naturalnego. Twórca czterech start-upów, w tym laboratorium sztucznej inteligencji Samurai Labs, które zajmuje się wykrywaniem i przeciwdziałaniem przemocy w internecie. Fundacja PlugIn nominowała tę firmę do grona najbardziej wpływowych polskich innowatorów, którzy z sukcesem działają także za granicą.
Michał Wroczyński jest wśród gości dzisiejszej (8 lipca) konferencji online Polish Tech Day, której tematem przewodnim są dobre praktyki radzenia sobie z kryzysami przy wykorzystaniu najnowszych zdobyczy technologicznych.
Udział w wydarzeniu jest bezpłatny. Szczegółowe informacje można znaleźć na stronie https://polishtechday.com
Serwis sztucznainteligencja.org.pl jest patronem medialnym konferencji.