Wszyscy korzystamy z wyszukiwarek, za którymi stoi skomplikowany algorytm. To od niego zależy dokąd w poszukiwaniu informacji w internecie trafimy. Google chce, żebyśmy trafiali do solidnych źródeł
Wykorzystywany przez najpopularniejszą internetową wyszukiwarkę algorytm nosi nazwę Page Rank, co jest grą słów. Pochodzi od nazwiska jednego z założycieli Google’a Larry’ego Page’a, ale jednocześnie oznacza po prostu „ranking stron”. Ten algorytm właśnie w dużej mierze decyduje w jakiej kolejności są przedstawiane wyniki naszych zapytań. Co ciekawe, algorytm opatentował Uniwersytet Stanforda, a Google wykupiło jedynie licencję na jego wyłączność, w zamian za co uczelnia dostała akcje internetowego giganta. Patent wygasł zresztą w tym roku.
Algorytm działa na podstawie znanej od dawna zasady, która zakłada, że jakość źródła informacji jest proporcjonalna do liczby tekstów, które nań się powołują (czyli w przypadku stron internetowych linkują do tekstu). Page Rank dodaje do tej zasady własne wagi, a linki prowadzące ze stron, będących już wysoko w rankingu mają większą wagę, niż te ze stron rzadko odwiedzanych. Jeśli do naszego tekstu linkuje popularny serwis internetowy, dostaniemy więcej punktów niż gdyby linkowała doń mniej znana strona.
Teoretycznie taki mechanizm powinien promować rzetelne źródła wiadomości. Na przykład poważne dzienniki i tygodniki powinny stać wyżej w wynikach wyszukiwania niż rzadziej odwiedzane portale. Nie jest to jednak aż tak proste.
Wyszukiwarka Google’a bierze pod uwagę jeszcze inne czynniki, które pozostają sekretem internetowego giganta. Z dostępnych informacji oraz metodą prób i błędów powstała cała gałąź praktycznej wiedzy, zwana Search Engine Optimization, czyli SEO, a po polsku – pozycjonowaniem wyników wyszukiwania.
Dlaczego media nie kochają Google’a
Wydawcy prasy nie kochają internetowych gigantów, zwłaszcza Google’a. Przede wszystkim wraz z Facebookiem i Amazonem zgarnął większą część reklamowego tortu (to do tych trzech firm spływa znakomita większość pieniędzy z internetowych reklam). Ale co ważniejsze, wydawcy uważają, że za przedstawianie ich treści (nawet w formie skrótu linkującego do całego tekstu) na platformach takich jak Google News należy im się część wpływów. W tej ostatniej kwestii rację europejskim wydawcom przyznała Komisja Europejska, która w kwietniu tego roku zmodyfikowała unijne prawo autorskie tak, by Google musiał im płacić. Ale nie wstecz – w ubiegłym tygodniu grupa 200 niemieckich wydawców (VG Media) przegrała proces z internetowym molochem.
Jest jednak też inny – być może ważniejszy – powód niechęci prasy do internetowych gigantów. Nader często, żeby zaistnieć wysoko w wyszukiwarce, wystarczy zacytować skrót oryginalnego tekstu. Jeśli skrót czy omówienie będą cytowane odpowiednio często, mogą zawędrować w wynikach wyszukiwania wyżej niż tekst oryginalny. Tracą na tym redakcje, które w powstanie pierwotnej treści zainwestowały.
Przykładem mogą być dziennikarskie śledztwa, które potrafią trwać latami i angażować wiele osób, co jest niezwykle kosztowne. Opublikowanie omówienia takiego autorskiego tekstu trwa znacznie krócej i niewiele kosztuje. A ponieważ obydwa teksty – oryginał i skrót – zawierają te same informacje, algorytm sklasyfikuje je podobnie. Z czasem, gdy coraz więcej linków będzie prowadzić do oryginalnego tekstu, teoretycznie może on zawędrować w wynikach wyszukiwania wyżej. Jednak dla wydawcy będzie to już przysłowiowa musztarda po obiedzie – do tego czasu znaczną część przychodów z reklam zgarnie konkurencja. Przynajmniej tak było do tej pory, bo Google chce to zmienić.
Algorytm promuje rzetelne źródła…
Na oficjalnym blogu wiceszef działu wiadomości firmy Richard Gingras przyznał, że wyszukiwarka zwykle na szczycie wyników pokazuje doniesienia najnowsze, ale firma chce, by znajdowały się tam odtąd autorskie treści, „teksty, od których cała historia się zaczyna”. Chce także, by widniały w wynikach wyszukiwania dłużej. W ten sposób szukający informacji w sieci, prócz najnowszych doniesień, będą mieli szanse dotrzeć do pierwotnego, autorskiego tekstu.
Jak Google chce to zrobić? Nauczyć algorytm je promować. Firma zatrudnia armię (dziesięć tysięcy osób) do oceniania stron internetowych. Nie mają bezpośredniego wpływu na to, co widzimy na stronie wyszukiwania, ale ich opinie o stronie internetowej są brane pod uwagę przy uczeniu algorytmu. Zasady, według których pracownicy wyszukiwarki oceniają strony są zresztą dostępne publicznie.
Od tej pory pracownicy Google’a mają zwracać większą uwagę na to, czy oceniane przez nich treści są oryginalnym, autorskim materiałem (jakim są np. reportaże, czy wyłączne doniesienia prasowe). Przy ocenie mają się też kierować rzetelnością źródła, mierzoną tym, czy dany autor lub tytuł został już kiedyś wyróżniony nagrodami. Wkrótce w wynikach wyszukiwania powinniśmy częściej widzieć rzetelne źródła dziennikarskich informacji. Ale nie oznacza to, że po epoce dezinformacji nagle nastanie epoka rzetelnych informacji. Drugim gigantem, który ma kłopot z jakością źródeł informacji jest Facebook – tam też wiadomości podsuwa nam algorytm.
…I algorytm promuje sensacje
Poza tym internetowa wyszukiwarka to tylko jedno z narzędzi i platform, które posiada Google. Należący doń YouTube również wykorzystuje algorytmy. Gdy obejrzymy film, podpowiedzą nam inne o podobnej tematyce. Oczywiście nie czyni tego bezinteresownie, im dłużej oglądamy filmy, tym większe przychody firmy z internetowych reklam. Często krytykowano za to, że tamtejszy algorytm promuje sensacyjne nagrania i teorie spiskowe nieoparte na faktach.
W krótkiej perspektywie sensacyjne treści są dla każdego wydawcy i właściciela platformy wydawniczej (czy medialnej) korzystne, przysparzając mu kliknięć i odsłon reklam. W dłuższej psują mu reputację. Trudno nie oprzeć się wrażeniu, że promowanie „rzetelnych, oryginalnych dziennikarskich treści ma być przeciwwagą dla YouTube’a i pozwolić Google’owi odzyskać reputację – nadszarpniętą, dodajmy, przez jego własne algorytmy.
To właśnie algorytmy internetowych gigantów sprawiają, że łatwiej jest rozprzestrzeniać się antyszczepionkowym zabobonom, czy tworzonym na potrzeby kampanii wyborczych fake newsom. Latem tego roku znane z rzetelności publikowanych informacji BBC zorganizowało szczyt poświęcony walce z dezinformacją w internecie (zwłaszcza pod kątem zagrożenia dla demokracji). Do inicjatywy dołączyli: stowarzyszenie nadawców europejskich (European Broadcasting Union), Reuters, Financial Times, Wall Street Journal, a ze strony internetowych gigantów Facebook, Google, Twitter i Microsoft. Po serii testów mają opublikować szczegóły wspólnych działań.
Ale dostępność rzetelnej informacji w internecie i tak będzie zależała od algorytmów należących do rynkowych gigantów.