Facebook i Reuters uczą, jak nie dać się nabrać na zmanipulowane nagrania i ich nieświadomie nie rozprzestrzeniać
Eksperci do spraw cyberbezpieczeństwa są zgodni – jednym z najpoważniejszych zagrożeń w roku 2020, zwłaszcza w obliczu zbliżających się wyborów w USA, będą deepfakes, czyli zmanipulowane materiały wideo stworzone za pomocą sieci neuronowych.
Walka Facebooka z deepfake’ami trwa od września zeszłego roku. To wtedy firma zapowiedziała współpracę z Microsoftem i kilkoma uniwersytetami, której celem będzie stworzenie technologii automatycznego wykrywania zmanipulowanych materiałów.
Eksperci przyznają jednak, że w obliczu wciąż doskonalonej technologii nie ma pewności, że algorytmy wykrywania deepfake’ów okażą się w stu procentach skuteczne. Nic więc dziwnego, że portal postanowił szukać sojuszników w środowisku bezpośrednio zainteresowanym kwestiami autentyczności wideo – wśród dziennikarzy.
Portal Marka Zuckerberga ogłosił, że wraz z agencją Reuters stworzył 45-minutowy kurs dla dziennikarzy prezentujący największe zagrożenia związane ze zmanipulowanym obrazem, dźwiękiem i wideo, a także proste techniki weryfikacji autentyczności materiałów.
Mimo że kurs powstał z myślą o dziennikarzach, powinien go przestudiować każdy, kto chce zachować zdrowe, krytyczne podejście do informacji odnalezionych w sieci.
Kurs obejmuje oczywiście zagadnienia deepfakes, ale także innych form manipulacji. Są wśród nich:
- informacje wyrwane z kontekstu, czyli np. ilustrowanie informacji o protestach materiałami z innego czasu, a często z innego miejsca;
- stronniczy montaż – takie manipulowanie sekwencjami wideo, aby dostosować wymowę filmu do swoich potrzeb;
- manipulacja prędkością nagrania – tu posłużono się przykładem wziętym z życia. Kilka miesięcy temu na YouTube ukazało się nagranie amerykańskiej polityczki Nancy Pelosi, na którym wyglądała na nietrzeźwą. Szybko okazało się, że efekt osiągnięto, spowalniając nagranie do 75 procent prędkości przy zachowaniu wysokości głosu;
- zainscenizowane wideo – wyglądające na autentyczne, ale w istocie odegrane przez aktorów;
- materiały zmodyfikowane komputerowo – filmy i zdjęcia, na których za pomocą efektów wizualnych dodano lub usunięto istotne elementy.
Jak widać, lista jest długa. W kursie znajdziemy kilka metod weryfikacji, z których może korzystać każdy z nas. Oto wskaźniki, po których czasem można poznać deepfakes:
- brak pełnej synchronizacji audio/wideo;
- nienaturalny ruch ust mówiącej osoby;
- dziwne układy pikseli na brzegach sylwetek osób i przedmiotów;
- mówiąca osoba jest nienaturalnie nieruchoma;
- mówca ma mało wyrazistą mimikę, a także rzadko mruga;
- oczy mówiącej osoby wydają się mniej „żywe”
Niektóre formy manipulacji bardzo trudno wykryć w samych materiałach. Dlatego nasza analiza powinna wyjść poza sam materiał. Co jeszcze możemy zrobić?
- przepuśćmy podejrzane zdjęcie lub kilka klatek z wideo przez wyszukiwarkę obrazów, np. Google Grafika. Jeśli obraz był zmanipulowany, mamy szansę znaleźć wersję oryginalną;
- sprawdźmy, czy są inne zdjęcia lub nagrania pokazujące tę samą sytuację z innego ujęcia;
- poszukajmy potwierdzenia informacji w innych mediach – np. na lokalnych portalach informacyjnych;
- przeszukajmy media społecznościowe w poszukiwaniu potwierdzenia doniesień lub ich zaprzeczenia.
W dobie mediów społecznościowych my też ponosimy częściową odpowiedzialność za rozprzestrzenianie się kłamliwych informacji. Warto wykonać wysiłek, by przed udostępnieniem jakiejś treści zweryfikować jej autentyczność.
Kurs przygotowany przez Reutersa i Facebooka jest dostępny pod adresem https://www.reuters.com/manipulatedmedia na razie w czterech językach: po angielsku, francusku, hiszpańsku i arabsku. Jak czytamy na engadget.com, Reuters zamierza przetłumaczyć go na kolejne 12 języków. W 2020 roku agencja i portal społecznościowy będą wspólnie organizować wydarzenia i konferencje związane z tą tematyką.