Amerykański naukowiec chwali się, że wykorzystał sieci neuronowe do tworzenia na Twitterze fałszywych wpisów znanych osobistości

Wystarczy zebrać odpowiednią ilość danych z wypowiedzi na przykład Donalda Trumpa, Elona Muska czy Justina Biebera, a następnie znaleźć klucz, który pozwoli deszyfrować ich sposób myślenia.

Naukowiec związany z Massachusetts Institute of Technology Lex Fridman poinformował, że do tworzenia fałszywych treści wykorzystał Generative Pretrained Transformer 2 (GPT-2) firmy OpenAI, który przewiduje kolejne słowo na podstawie określonej liczby danych.

Fridman pobrał te dane z Twittera w postaci publikowanych przez znane osobistości treści, a następnie stworzył konkretne modele botów, „żyjące” awatary m.in. Elona Muska, Justina Biebera, Kanye Westa czy Katy Perry.

Z kolei owe boty na podstawie różnych podpowiedzi tworzyły fałszywe tweety.

W ten sposób naukowiec chciał wykazać, że można stworzyć model wypowiedzi każdego człowieka, a następnie przewidywać co mógłby odpowiedzieć swojemu adwersarzowi.

Jakie zagrożenia mogą pojawić się w przypadku, kiedy fałszywe wpisy informowałyby o wojnie, rezygnacji z kontraktu przez dane państwo lub alarmowały o fałszywych zagrożeniach?

Jak informuje Fridman cały proces zajął mu nie więcej niż 4 godziny programowania i dwa tygodnie treningu sieci neuronowej. Docelowo stworzył kilkanaście takich modeli wraz ze swoim własnym.

Brzmi groźnie? Niestety coraz więcej ośrodków politycznych, grup nacisku czy lobbystów chętnie sięgnęłoby po taki system.

– Wykorzystanie takich rozwiązań staje się coraz groźniejsze dla nas wszystkich. Niesie za sobą olbrzymie zagrożenia i to, co dla jednych wydaje się tylko internetową zabawą, dla innych może być internetową bronią atomową. Sztuczna inteligencja może być groźna dla ludzi, zwłaszcza używających serwisów społecznościowych. Mamy nie tylko boty, czy fałszywe konta na Twitterze, ale deep fake ze zdjęciami np. na Facebooku, a nawet wideo pokazujące znanych ludzi w nierzeczywistych sytuacjach i wypowiedziach – zauważa Paweł Nowacki, niezależny ekspert ds. cyfrowej transformacji i nowych mediów, dziennikarz, właściciel DigitalFlow.pl.

To przewidywanie ludzkich wypowiedzi przez sieci neuronowe, choć brzmi ciekawie rodzi pytanie o granicę, jak daleko możemy się posunąć w produkcji tego typu modeli. Zastanawiające jest też, jakie zagrożenia mogą pojawić się w przypadku, kiedy fałszywe wpisy informowałyby o wojnie, rezygnacji z kontraktu przez dane państwo lub alarmowały o fałszywych zagrożeniach.

– Nie dziwi, że coraz więcej państw dostrzega ten problem, a w USA poważnie debatuje się już nad postępowaniem antytrustowym wobec Facebooka czy Google. To po to, by ograniczyć ich monopol technologiczny i biznesowy; takie firmy stać jest dziś na kupowanie najlepszych technologii oraz ludzi i na pewno nie zawsze będzie to pożyteczne dla internautów. A na pewno zyskiem dla samych tych firm i ich udziałowców. Dostrzegamy, że rozwój technologii wymknął się już spod społecznej kontroli, a szkody jakie np. deep fake newsy mogą wyrządzić stają się groźne dla jednostek i całych społeczeństw – podsumowuje Nowacki.