Czy sztuczna inteligencja nauczy agresywnych frustratów szacunku do kobiet?
Wulgarne, obraźliwe, często nawet agresywne treści to plaga internetu, mediów społecznościowych, w tym, a może przede wszystkim, aplikacji randkowych. Ich ofiarą padają zwłaszcza młode kobiety.
Mężczyźni nierzadko wysyłają wulgarne wiadomości czy nieprzyzwoite zdjęcia, a brak zainteresowania lub odmowę odreagowują, wysyłając wiązanki inwektyw, a nawet groźby. Przykłady takich zachowań są bardzo liczne.
Według najnowszych badań Pew Research przeprowadzonych w Stanach Zjednoczonych, 60 procent kobiet w wieku 18-34 doświadczyło sytuacji, w której mężczyzna kontaktował się z nimi po tym, jak powiedziały mu, że nie są nim zainteresowane. 57 procent otrzymało nieprzyzwoite wiadomości lub zdjęcia, o które nie prosiły. 44 procent spotkało się z inwektywami, a aż 19 procent – z groźbami pod ich adresem.
Jedna z najpopularniejszych aplikacji randkowych na świecie – Tinder – od niedawna próbuje uporać się z tym problemem przy wsparciu sztucznej inteligencji.
„Czy to cię obraża?”
System oparty o uczenie maszynowe będzie analizował wiadomości wysyłane pomiędzy użytkownikami i wyszukiwał te potencjalnie obraźliwe. Jeśli taką treść wykryje, zapyta odbiorcę, czy wiadomość, którą otrzymał, wydaje mu się obraźliwa. Jeśli odpowie „tak”, zostanie przekierowany do formularza zgłoszenia naruszenia.
Algorytm uczył się na wiadomościach, które już wcześniej zostały zgłoszone przez użytkowników aplikacji jako obraźliwe.
Problemem jest to, że czasem bardzo trudno określić, jakie treści przekraczają granice, a które są jeszcze dozwolone. Jest to tym bardziej niejednoznaczne, że w aplikacji randkowej użytkownicy mogą chcieć pozwolić sobie na więcej niż w czasie bardziej formalnych wymian zdań. Aby utrudnić sprawę jeszcze bardziej – to, co dla jednej osoby będzie oburzające nawet w kontekście flirtu, dla innej może być neutralne bądź nawet pożądane.
Tinder zapowiada, że docelowo system ma być spersonalizowany – ma się uczyć preferencji każdego użytkownika z osobna – poznać osobiste granice i bronić ich.
Nowa funkcjonalność jest dostępna w 11 krajach i 9 językach. W planach jest objęcie jej działaniem użytkowników we wszystkich krajach, w których aplikacja jest obecna.
Ban nad głową
Krytycy takiego rozwiązania zauważają, że technologia wpisuje się w trend przenoszący na ofiary odpowiedzialność za zgłaszanie nieprawidłowych treści. Systemy – twierdzą – powinny działać proaktywnie i nie dopuszczać do wysyłania nieodpowiednich treści. Trudno jednak wyobrazić sobie sprawnie działający automatyczny i samodzielny system, który trafnie rozpozna często zniuansowane i potencjalnie wieloznaczne treści bez udziału człowieka.
Twórcy Tindera liczą, że dzięki wdrożeniu ich systemu z czasem upowszechni się świadomość, że wiadomości przesyłane przez aplikację są monitorowane i nadużycia grożą permanentną blokadą konta. Liczą, że będzie to czynnik odstraszający, który spowoduje, że potencjalny napastnik dwa razy się zastanowi, zamiast wyśle obraźliwą wiadomość.
Na razie nowe rozwiązanie nie wpłynęło na zmniejszenie liczby niewłaściwych treści, ale liczba zgłoszeń wzrosła o 37 procent. „Naszym celem jest to, żeby ludzie mieli świadomość, że zwracamy na to uwagę. Liczymy, że to sprawi, że niewłaściwe wiadomości zanikną” – mówi w rozmowie z Wired Rory Kozoll, dyrektor ds. zaufania i bezpieczeństwa produktów.
„Czy na pewno chcesz to wysłać?”
To niejedyna technologia, którą zamierza wprowadzić właściciel Tindera, platforma Match, w celu zapewnienia większego bezpieczeństwa. Już wkrótce algorytm wykrywający treści potencjalnie obraźliwe ma działać również po stronie wysyłającego. Jeśli wykryje taką wiadomość, przed jej wysłaniem wyświetli pytanie „czy jesteś pewien, że chcesz to wysłać?”, dając użytkownikowi czas do namysłu.
Inne rozwiązanie ma ochronić użytkowników aplikacji podczas randek z nowo poznanymi tinderowiczami. W aplikacji będzie dostępny specjalny przycisk alarmowy, który po wciśnięciu powiadomi odpowiednie służby o niebezpieczeństwie. Zarejestrowanie się w usłudze spowoduje, że w naszym profilu pojawi się symbol tarczy, który sam w sobie może mieć działanie odstraszające – coś jak plakietki „obiekt chroniony” na budynkach.
Wszystko to, by zminimalizować szkody wywołane przez urażone ego dorosłych (ponoć) mężczyzn. W redakcji naszego portalu utarło się powiedzenie: „kiedy nie można liczyć na ludzką inteligencję, może chociaż sztuczna zadziała”. Trudno o bardziej adekwatny komentarz.
Cenzura tylko dla dorosłych
Anna Konieczyńska, dziennikarka Vogue, współautorka cyklu „Love me Tinder”, który traktuje o doświadczeniach kobiet z aplikacjami randkowymi.
Moje rozmówczynie, ale też przyjaciółki wielokrotnie opowiadały mi o zaczepkach mężczyzn, które dalece przekraczały granice dopuszczalnego flirtu. Każda z nich otrzymała dick picki [zdjęcia męskich genitaliów], o które nie prosiła, przypadkowi użytkownicy wysyłali im wiadomości, w których w bardzo dosłowny sposób opisywali swoje fantazje erotyczne, zdarzały się też pogróżki – „jeśli się ze mną nie umówisz, powiem wszystkim, że się puszczasz”.
Pomysł na ograniczenie tego typu niepożądanych, a nawet niebezpiecznych komunikatów wydaje się naturalną ewolucją Tindera. Jeśli zaliczyć aplikację do kategorii mediów społecznościowych, a nie tylko węższej kategorii aplikacji randkowych, nie dziwi potrzeba kontroli. Facebook i Instagram już dawno wprowadziły metody kontroli treści tam publikowanych.
Biorąc pod uwagę, że z Tindera korzystają dobrowolnie dorośli ludzie, można się jednak zastanowić, czy taka cenzura jest konieczna. W większości sytuacji można przecież w każdej chwili przerwać rozmowę z agresywnym użytkownikiem. A z racji tego, że na Tinderze nikt nie jest anonimowy, molestowanie seksualne zgłosić na policję. Czy przyniesie to realne konsekwencje prawne, to już inna kwestia.