Naukowcy wykazali to, co od dawna podejrzewano. Algorytmy największego serwisu wideo kierują użytkowników w stronę coraz bardziej radykalnych treści

YouTube od dawna ma problem z równowagą pomiędzy wolnością słowa a słowami pełnymi nienawiści. Próbuje z takimi treściami walczyć, zamykając niektóre kanały, zmienił też niedawno swoją politykę dotyczącą publikowania niektórych rodzajów treści. Według krytyków to za mało.

Międzynarodowa grupa badaczy z Politechniki Federalnej w szwajcarskiej Lozannie poddała analizie działanie algorytmów YouTube’a. Najpierw przejrzeli ponad 300 tysięcy filmów opublikowanych w tym serwisie i sklasyfikowali je (według schematu zaproponowanego przez Anti-Defamation League) jako faktyczne (oparte na prawdziwych informacjach), alt-lite (należące do prawicowego nurtu uważającego się za odrębny od konserwatystów i radykalnej prawicy spod znaku alt-right), należące do nurtu intellectual dark web (w skrócie IDW, który głównie podważa poprawność polityczną) oraz alt-right (czyli radykalnie prawicowe). Wszystkie trzy prawicowe grupy kontestują ogólnie przyjęte poglądy, choć różnią się stopniem radykalizacji.

Autorzy badania postawili hipotezę, że na YouTubie treści mniej radykalne stanowią furtkę do tych ekstremistycznych. I mieli rację – po przeanalizowaniu ponad 70 milionów komentarzy w maju i czerwcu ubiegłego roku okazało się, że co czwarta osoba komentująca treści mniej radykalne z czasem pozostawia także komentarze pod filmami spod znaku radykalnej prawicy. Jak piszą autorzy pracy: „Nasze symulacje sugerują, że algorytm rekomendacji YouTube’a często sugeruje treści alt-lite i IDW. Oglądając filmy tych dwóch grup, treści alt-right można znaleźć w sugestiach kanałów, choć nie w rekomendowanych filmach.”

Pracę zaprezentowano podczas konferencji „Conference on Fairness, Accountability, and Transparency” 2020 w Barcelonie organizowanej przez Association for Computing Machinery.

Naukowcy przyznają, że ich praca badawcza nie bierze pod uwagę personalizacji. Każdy, kto ma konto Google udostępnia firmie mnóstwo danych na swój temat – w tym historię wyszukiwania haseł w przeglądarce. Algorytmy YouTube’a zapewne korzystają nie tylko z tego, co użytkownik oglądał w tym serwisie, ale i z jego historii wyszukiwania oraz odwiedzanych stron.

Co dokładnie sprawia, że ludzie przechodzą od treści mniej do bardziej radykalnych nie jest do końca jasne. YouTube nie udostępnia pełnych danych odnośnie algorytmów rekomendacji. Jak twierdzi MIT Technology Review YouTube w komunikacie prasowym przyznaje, że firma ma problem z takimi treściami. Ale jednocześnie rzecznik prasowy podważa metodologię badań i podnosi, że nie biorą one pod uwagę najnowszych zmian polityki serwisu.

Autorzy badania postawili hipotezę, że na YouTubie treści mniej radykalne stanowią furtkę do tych ekstremistycznych. I mieli rację. Po przeanalizowaniu ponad 70 milionów komentarzy okazało się, że co czwarta osoba komentująca treści mniej radykalne z czasem pozostawia także komentarze pod filmami spod znaku radykalnej prawicy.

Istotnie, YouTube przez ostatnie kilka lat starał się przeciwdziałać rozpowszechnianiu się radykalnych treści. Na przykład zaostrzył reguły dotyczące publikowania filmów zawierających mowę nienawiści. Jak widać, nie zmienia to faktu, że jego algorytmy radykalizują widzów.

YouTube może się bronić tym, że problem nie polega na algorytmach, tylko na ludzkiej naturze. Wszakże to widzowie serwisu szukają sensacyjnych treści, a algorytm to tylko optymalizuje. Algorytmy służą do optymalizacji procesów, ale to człowiek decyduje, jaki proces zada im do optymalizacji. Jeśli będzie to problem „poszukiwania treści prawicowych” algorytm będzie kierował w stronę treści coraz bardziej prawicowych – i tyle.

Jeśli maszynowe algorytmy optymalizują proces ludzkich wyborów, po prostu starają się podsunąć nam jak najwięcej tego, co chcemy w danej chwili. Oczywiście im bardziej pochłonie nas to, co nam podsuną, tym więcej czasu poświęcimy też na oglądanie reklam, co spółce Google przyniesie wymierną korzyść finansową.

Zjawisko to opisywano (choć raczej anegdotycznie) już kilka lat temu. Zaś dwa lata temu felietonistka „New York Times” Zeynep Tufekci przeprowadziła eksperyment. Obejrzawszy kilka filmów z konwencji wyborczych Donalda Trumpa zauważyła, że YouTube podsuwa jej coraz bardziej prawicowe i ekstremalne treści. Założyła więc inne konto w serwisie, żeby sprawdzić, czy po obejrzeniu konwencji wyborczych Hilary Clinton i Berniego Sandersa algorytm skieruje ją w równie radykalne i pełne teorii spiskowych otchłanie – ale lewicowe. Tak też się stało.

Współczesne algorytmy po prostu wzmacniają nasze wybory. Kiedyś przed zbyt radykalnymi treściami chroniła instytucja wydawcy – teraz w internecie każdy może zamieścić, co zechce, a internetowi giganci odżegnują się od pełnienia roli wydawcy czy redaktora. Nie mieliby nawet jak. Każdej sekundy na YouTube trafia godzina materiału wideo. Kto miałby to wszystko dokładnie oglądać?

W ubiegłorocznym liście do autorów filmów CEO YouTube’a Susan Wojcicki wspomniała, że platforma „musi zaakceptować niektóre obraźliwe treści, by pozostać otwarta” oraz że „wsłuchiwanie się w szerokie spektrum perspektyw docelowo czyni z nas silniejsze i lepiej poinformowane społeczeństwo”.

Ale oglądając filmy zniechęcające do szczepień dzieci albo przekonujące o wyższości „białej rasy” trudno oprzeć się wrażeniu, że jest raczej odwrotnie.