Amerykanie wymyślili system do wykrywania kłamstw oparty na uczeniu maszynowym
„Przysięgam mówić całą prawdę i tylko prawdę” – z ręką na kodeksie karnym świadkowie i oskarżeni umownie zobowiązują się przed sądem do prawdomówności, wypowiadając uroczyście słowa roty. Ale to tylko słowa, a kłamstwa w salach rozpraw to powszechne zjawisko. Naukowcy z Uniwersytetów w Maryland i Dartmouth wpadli na pomysł, by zeznania nagrywane cyfrowo przepuścić przez sztucznie inteligentny wariograf. System nosi nazwę Dare.
„Prezentujemy system ukrytego automatycznego wykrywania oszustw w filmach z rozpraw sądowych” – brzmi wstęp do opisu badań, w których naukowcy wykazali 92-procentową skuteczność algorytmów w wykrywaniu konfabulacji (człowiek w tym zadaniu osiągnął poziom 81 procent).
Oprogramowanie wykorzystuje wizję komputerową do uchwycenia i klasyfikacji mikroekspresji twarzy oraz analizy częstotliwości dźwięku w celu wykrycia ujawniających się wzorów w głosach uczestników rozpraw.
Aby wyszkolić system, użyli m.in. 104 filmy z sal rozpraw, nagranych z aktorami, którzy albo kłamali, albo byli prawdomówni. Zestaw danych do wykrywania oszustw opublikowany został kilka lat temu przez informatyków z University of Michigan i University of North Texas.
Kłamstwa przed ławą
W Stanach Zjednoczonych, aby uznać winę, sędzia i (lub) ława przysięgłych musi stwierdzić ponad wszelką wątpliwość, że oskarżony jest winny przestępstwa. Ławę tworzą zwykli, obcy sobie ludzie, którzy nie zetknęli się też ze sprawą, w której orzekają. To ma gwarantować ich bezstronność. Wymagana jest albo jednomyślność (procesy karne), albo kwalifikowana większość zgodnych co do winy lub jej braku reprezentantów ławy przysięgłych. Najczęściej i w najtrudniejszych sprawach trudno jest im ustalić werdykt jednogłośnie.
– „Oszustwo jest powszechne w naszym codziennym życiu. Niektóre kłamstwa są nieszkodliwe, podczas gdy inne mogą mieć poważne konsekwencje i mogą stać się egzystencjalnym zagrożeniem dla społeczeństwa. (…) Dlatego dokładne wykrycie oszustwa ma kluczowe znaczenie dla bezpieczeństwa osobistego i publicznego” – wyjaśniają naukowcy.
Coraz więcej SI na sali sądowej
Sztuczna inteligencja coraz częściej zagląda na sale sądowe. W Estonii system rozstrzyga spory o niskiej wartości. W Chinach chatboty i awatary prowadzą procesy, w USA algorytmy oceniają ryzyko złamania sankcji karnych przez podejrzanych.
Rozwiązaniu Amerykanów przyjrzał się rosyjski karnista dr Aleksandr Michajłow. W opublikowanym pod koniec ubiegłego roku artykule stwierdził, że technologia sztucznej inteligencji w podejmowaniu decyzji przez sądy, nie będzie mogła być stosowana.
Powołuje się w swoim stwierdzeniu na opinię publiczną, która ma zaufanie do sędziów, a nie do maszyn. „Nawet ograniczone wykorzystanie sztucznej inteligencji w postępowaniu karnym, podobnie jak w Stanach Zjednoczonych, niesie ze sobą ogromne ryzyko dla prawdziwej sprawiedliwości opartej na prawie do rzetelnego procesu” – czytamy w artykule Michajłowa.
Wysoki Algorytmie…
W nieco łagodniejszym duchu wypowiada się Raja Chatilla, przewodnicząca komitetu wykonawczego Globalnej inicjatywy na rzecz etycznych rozważań w zakresie sztucznej inteligencji i systemów autonomicznych w Instytucie Inżynierów Elektryków i Elektroników (IEEE). Zwraca uwagę, że Dare należy stosować ostrożnie, szczególnie w salach sądowych. Duże prawdopodobieństwo nie oznacza pewności, ale technologia zmierza ku temu, że już za kilka lat systemy będą w 100 procentach precyzyjne.
Wizję zautomatyzowanego wymiaru sprawiedliwości, posiłkując się amerykańskim systemem Dare, roztoczył niedawno ekonomista z Oxfordu Daniel Susskind, autor publikacji o przyszłych zmianach świata w świeżo wydanej książce pt. „Świat bez pracy”. Daje wizjonerski opis tego, w jaki sposób automatyzacja wpłynie na ludzi i co powinniśmy z tym zrobić. Przywołując przykład amerykańskiej propozycji SI wykrywającej kłamstwa w sądzie pokazuje, jak maszyny będą przejmować zadania, które wymagają ludzkiej zdolności do myślenia i wnioskowania.
Kłamcy używają więcej ozdobników
W wielu placówkach naukowych prowadzone są badania nad wykorzystaniem SI i uczenia maszynowego do wykrywania kłamstw. Jednym z przykładów jest projekt prowadzony przez polskich badaczy, w którym algorytmy będą analizować, czy teksty pisane są wiarygodne, czy nie, na podstawie gramatycznych i stylistycznych cech.
Z kolei badacze z Uniwersytetu Florydy i uczelni Stanforda zbadali wytrenowanymi algorytmami uczenia maszynowego prawdomówność internautów. Eksperyment był przeprowadzony w kontrolowanych warunkach w ramach specjalnie zaprojektowanego systemu online. Uczestniczący w projekcie internauci mieli za zadanie, prowadząc rozmowę mówić prawdę lub kłamać (role były przypisywane losowo). System analizował słowa używane przez poszczególne grupy oraz sposób wysyłania odpowiedzi.
Eksperyment przeprowadzony na ludziach i maszynie pokazał, że system osiągał od 85 do 100 proc. skuteczności w wykrywaniu kłamstw w analizowanych wiadomościach, a ludzie co najwyżej w połowie przypadków.
Co wykazało badanie? Kłamcy używali w wiadomościach więcej ozdobników, częściej też posługiwali się słowami typu „myślę”, „wiem”, „zawsze” i „nigdy”, a prawdomówni „być może”, „zgadnij”, „powinien” i „mógł”. Oszukujący zauważalnie szybciej odpowiadali na wiadomości.