Ile trwa stworzenie algorytmu, który może masowo produkować fałszywe informacje na zadane tematy? Około 13 godzin

Postęp w badaniach nad mechanizmami przetwarzania języka naturalnego jest w ostatnich czasach niebagatelny. Towarzyszą mu obawy przed wykorzystaniem tych technologii w niecnych celach, na przykład do masowej dezinformacji, spamu czy nękania w sieci. Kilka miesięcy temu informowaliśmy o GPT-2, algorytmie tworzącym tak wiarygodne teksty, że jego twórcy wciąż nie udostępnili jego pełnej wersji.

Badacze z Global Pulse, inicjatywy Organizacji Narodów Zjednoczonych, postanowili zwrócić uwagę opinii publicznej na ten problem i zademonstrować, jak łatwo i szybko można skonstruować mechanizm, który będzie siał dezinformację.

Na żądanie twórców algorytm wypowiadał skrajne, ksenofobiczne opinie, rzucał oskarżenia, używał krzywdzących uogólnień

Stworzyli narzędzie, które na podstawie krótkiego fragmentu tekstu jest w stanie wygenerować zmyśloną wypowiedź polityka. W swoim projekcie użyli tylko ogólnodostępnych narzędzi i danych. Wykorzystali gotowy model przetwarzania języka naturalnego wytrenowany na hasłach z Wikipedii i zmodyfikowali go w oparciu o wszystkie wystąpienia liderów politycznych na Zgromadzeniu Ogólnym ONZ od 1970 do 2015 roku. Wszystkie obliczenia zajęły około 13 godzin i kosztowały niecałe 8 dolarów (koszt chmury obliczeniowej). Efekt – rozsądnej jakości model, który generował wiarygodne wyimki z wystąpień, poruszające ważkie i delikatne kwestie, jak kryzys uchodźczy czy rozbrojenie nuklearne.

Algorytm potrafi tworzyć wiarygodne wypowiedzi na tematy, o których wiadomo, że były poruszane w zestawie danych treningowych. Co więcej, potrafi imitować styl wypowiedzi konkretnych polityków na wskazany aktualny temat (mimo że dane treningowe obejmowały lata 1970-2015) z zachowaniem formalnego tonu dyskusji politycznych na wysokim szczeblu.

Najbardziej niepokojące jest to, że na żądanie twórców algorytm wypowiadał skrajne, ksenofobiczne opinie, rzucał oskarżenia, używał krzywdzących uogólnień.

Tego rodzaju technologia mogłaby posłużyć dezinformacji i rozprzestrzenianiu fake newsów, automatycznemu generowaniu mowy nienawiści pod adresem konkretnej osoby lub grupy, podszywaniu się pod publiczne osoby i wkładaniu im w usta nieprawdziwych cytatów. To wszystko z wykorzystaniem już dostępnych, tanich technologii, narzędzi i danych.

Eksperyment miał pokazać, jak istotne jest tworzenie narzędzi, które potrafiłyby wykrywać treści stworzone przez sztuczną inteligencję. Poruszaliśmy ten temat w naszej niedawnej rozmowie z dr Aleksandrą Przegalińską.