Sztuczna inteligencja przeczytała 3,5 miliona książek, by sprawdzić, jak są w nich określani mężczyźni i kobiety. Rezultat był do przewidzenia.

Algorytmy sztucznej inteligencji wzięły na warsztat 3,5 miliona książek stanowiących miks beletrystyki i tekstów non-fiction, wydanych po angielsku między 1900 a 2008 rokiem. W sumie 11 miliardów słów.

Badanie zostało przygotowane na potrzeby spotkania Stowarzyszenia Lingwistyki Komputerowej przez międzynarodowy zespół ekspertów z Google Research, Uniwersytetu Cambridge, Uniwersytetu w Kopenhadze, Uniwersytetu Maryland i Uniwersytetu Massachusetts-Amherst.

By zwiększyć statystyczną wiarygodność badania, naukowcy wybrali do analizy czasowniki i przymiotniki powiązane z rzeczownikami określającymi osoby konkretnej płci (np. „syn”, „żona”). Następnie algorytm zbadał sentyment wypowiedzi, by podzielić określenia na pozytywne i negatywne.

Jedna zależność rzuciła się w oczy natychmiast – przymiotniki nacechowane pozytywnie, a dotyczące kobiet zwykle odnoszą się do ich wyglądu, a te dotyczące mężczyzn – do ich zachowań, postaw i cech charakteru.

I tak o kobietach mówi się „piękna”, „urocza”, „seksowna”. Pozytywne epitety dotyczące wyglądu są im przypisywane 20 razy częściej niż mężczyznom. Tych z kolei autorzy określają najczęściej takimi przymiotnikami, jak „odważny”, „racjonalny”, „sprawiedliwy”, „godny zaufania”.

Także w przypadku określeń negatywnych widzimy rażącą rozbieżność. Takie epitety opisujące wygląd pięć razy częściej odnoszą się do kobiet niż do mężczyzn.

Algorytmy mają za zadanie identyfikowanie wzorców. Jeśli je zaobserwują – uznają je za ‘słuszne’. Jeśli te wzorce wynikają ze stronniczego języka, to rezultat pracy algorytmu również będzie stronniczy

Prof. Isabelle Augenstein, Uniwersytet w Kopenhadze

„Widzimy jasno, że słowa opisujące kobiety w znacznie większym stopniu odnoszą się do ich wyglądu niż słowa opisujące mężczyzn. Byliśmy więc w stanie potwierdzić powszechną percepcję, tym razem na poziomie statystycznym” – mówi profesor Isabelle Augenstein z Uniwersytetu w Kopenhadze, cytowana w informacji prasowej uczelni.

Profesor Augenstein podkreśla, że „zaszyte” w języku stereotypy są bardzo groźne zwłaszcza w kontekście sztucznej inteligencji. Przecież to na nim uczą się algorytmy. „Algorytmy mają za zadanie identyfikowanie wzorców. Jeśli je zaobserwują – uznają je za ‘słuszne’. Jeśli te wzorce wynikają ze stronniczego języka, to rezultat pracy algorytmu również będzie stronniczy. System przejmuje język, którego my, ludzie używamy, a więc również nasze stereotypy i uprzedzenia dotyczące płci” – mówi profesor Augenstein.

Zespół zastrzega, że ich badania mają kilka ograniczeń, między innymi takie, że nie rozróżniają gatunków literackich. W wiadomości prasowej z oczywistych względów dobór przymiotników będzie inny niż w romansie. Naukowcy zauważają również, że analiza objęła ponad sto lat historii słowa pisanego – przez ten czas standardy traktowania płci znacznie się zmieniły. Zapowiadają, że w późniejszych pracach przeanalizują przebieg tych zmian w czasie.