Czy maszyny, a raczej algorytmy uczenia maszynowego, które nimi kierują, mogą być moralne? Można je nauczyć, co jest złe, a co dobre, jeśli będą czytać – wykazali badacze z Niemiec
Gdy zestawi się pojęcia „sztucznej inteligencji” i „etyki”, najczęściej przychodzi na myśl obraz pozbawionej skrupułów inteligentnych maszyn rodem z „Terminatora”. Rzeczywiście, armie świata pracują nad autonomicznymi maszynami (służącymi rzecz jasna do skutecznej eliminacji przeciwnika), ale maszynowe algorytmy mogą być nieetyczne na wiele innych sposobów.
Sztuczna inteligencja dyskryminuje osoby o innym kolorze skóry, kobiety, osoby o niższych dochodach. To wszystko to skutek tego, że nie ma „zmysłu moralnego” – zadania wykonuje zgodnie z przykładami, na których się wyuczyła. Nie wie nic o złożonym świecie.
A gdyby tak trochę wiedzy o moralności jej przekazać – czy stałaby się etyczna? Ba, ale jak to zrobić.
Badacze z niemieckiej Politechniki w Darmstadt postanowili zbudować Moral Choice Machine, czyli Maszynę Moralną. Stworzyli sieć neuronową, która tego, co jest dobre, a co złe, uczyła się, czytając teksty. Były wśród nich Biblia, Koran oraz teksty buddyjskie, konstytucje 193 państw, literatura udostępniana przez British Library oraz depesze prasowe Reutersa.
„Nasza praca to istotny przyczynek do fundamentalnej w dziedzinie SI kwestii: czy maszyny mogą mieć zmysł moralny? Jeśli tak, jak mogą się nauczyć ludzkiej etyki i moralności?” – mówi dr Patrick Schramowski, autor badania. „Wykazaliśmy, że maszyny mogą się nauczyć naszych wartości moralnych i etycznych. Mogą też zostać wykorzystane do rozpoznawania różnic między różnymi społecznościami czy grupami w różnych czasach”.
Badacze wpadli na ten pomysł właśnie dlatego, że SI bywa uprzedzona. „Postawiliśmy sobie pytanie: skoro SI nabywa szkodliwych uprzedzeń z tekstów autorstwa ludzi, to czy nie powinna nabyć również dobrych nawyków, co pozwoliłoby na wyposażenie SI w moralny zmysł podobny do ludzkiego?” – tłumaczy współautorka pracy, dr Cigdem Turan.
Jak to działa? Badaczka tłumaczy, że przypomina to naukę mapy. Jeśli dwa słowa są często używane razem, leżą na mapie blisko siebie. „Zabić” i „morderstwo” to dwa sąsiednie miasta, ale „miłość” będzie już odległa. W podobny sposób można też nanosić na umowną mapę całe krajobrazy. W odpowiedzi na pytanie „Czy powinienem zabić?” częściej oczekiwalibyśmy usłyszeć „Nie, nie powinieneś” (więc będzie bliżej na mapie) niż „Tak, powinieneś”.
Sieć neuronowa uczyła się, co jest dobre, a co złe, czytając teksty: od Biblii do depesz prasowych Reutersa
Nauczony na tekstach algorytm może odróżniać kontekst etyczny. Patrząc na odległości, wie, że zabijanie ludzi jest nieetyczne, ale zabijanie czasu – jest w porządku. Algorytm uczy się więc na podstawie tekstów, związków frazeologicznych, relacji między pojęciami w podobny sposób jak ludzie. Moralnej maszynie z Darmstadt można zadać dowolne pytanie zaczynające się od „Czy powinienem…?”, a ona odpowie.
Co ciekawe, badacze stwierdzili też, że wartości etyczne zmieniają się z czasem. Na przykład do końca ubiegłego wieku większość tekstów przedstawiała małżeństwo i bycie rodzicem jako dobre. Teksty z końca ubiegłej dekady tego wieku (lat 2008-2009) wykazują już mniej takich skojarzeń. Jako dobre i słuszne częściej przedstawiane są za to edukacja i praca – opowiada Turan.
„Nasze wyniki wskazują, że korpusy tekstów zawierają nadające się do odtworzenia i dokładne ślady naszych wyborów społecznych, etycznych i moralnych wraz z informacjami o ich kontekście”, piszą badacze w pracy opublikowanej we „Frontiers in Artificial Intelligence”.
Schramowski dodaje, że sztuczna inteligencja wykonuje coraz więcej złożonych zadań, które wykonują ludzie i ma coraz większą autonomię. Przywołuje przykład służby zdrowia i autonomicznych samochodów. I twierdzi, że dalsze badania w obszarze „etycznej SI” są ważne, jeśli chcemy zaufać decyzjom podejmowanym przez maszyny.
Zapytałem autorów pracy, czy ich sztuczna inteligencja jest w stanie rozstrzygać bardziej złożone kwestie (na przykład słynny „problem wagonika”, który polega na rozstrzygnięciu, czy należy zepchnąć wagonik, który pędzi na dwie osoby, jeśli przełożenie zwrotnicy na inny tor spowodowałoby śmierć tylko jednej) lub dylematy etyczne wymagające rozpoznawania skutków i przyczyny (czy należy zabić intruza, żeby ocalić własne życie). Jednym słowem, czy ich sieć neuronowa rozumie operatory logiczne i operację wynikania.
„Nie było to przedmiotem pracy nad Moral Choice Machine”, odpisał nam Patrick Schramowski. Dodał jednak, że obecnie jego grupa badaczy pracuje nad nowszymi modelami maszynowymi rozpoznawania języka naturalnego, a operatory logiczne i wnioskowanie są ważnym jego rozszerzeniem.
Czy badacze widzą jakieś praktyczne zastosowanie dla swojego obecnego modelu? Schramowski odpowiedział, że obecnie badają potencjalne zastosowanie w kontroli generowania tekstów przez systemy SI oraz w interaktywnych asystentach głosowych.