- Określenie spójnego systemu wartości moralnych dla autonomicznych pojazdów będzie trudne
- Decyzje o tym czyje życie jest ważniejsze podlegają zmianom zależnie od czynników kulturowych, ekonomicznych i społecznych oraz rejonu geograficznego
- Producenci autonomicznych pojazdów musieliby “programować” etykę dla konkretnego regionu lub kraju
Wyniki czteroletniego badania MIT na temat systemu wartości, jakimi miałyby się w przyszłości kierować autonomiczne pojazdy w sytuacjach krytycznych, nie przynoszą gotowej recepty na sukces. Pojawia się więcej pytań niż odpowiedzi.
Maszyna Moralna (ang. Moral Machine) to internetowy eksperyment prowadzony na przestrzeni ostatnich czterech lat przez MIT Media Labs. Naukowcy zbadali preferencje mieszkańców ponad 200 krajów całego świata w 13 scenariuszach wymagających podjęcia trudnych decyzji na temat życia pasażerów autonomicznego auta lub osób i zwierząt, które znajdą się na jego drodze. Nawiązania do słynnego dylematu wagonika, eksperymentu myślowego w etyce wydają się oczywiste.
Jednak tutaj znacznie podniesiono poprzeczkę, wprowadzając do gry rozróżnienie wieku, płci, czy statusu społecznego. Do już skomplikowanej układanki dorzucono kolejne elementy w postaci zwierząt (psów i kotów). W niektórych scenariuszach w pojeździe lub przed nim mamy kobietę w ciąży. Za każdym razem uczestnik badania musi dokonać wyboru między życiem pasażerów autonomicznego auta, a pieszymi na jego drodze. Pod uwagę wzięto również scenariusz, według którego osoby wchodzą na ulicę na czerwonym świetle.
Uczestnicy eksperymentu Moral Machine podjęli łącznie 39,61 mln decyzji. Na ich bazie naukowcy stworzyli profil systemu moralności, na jakim przynajmniej teoretycznie powinny bazować autonomiczne pojazdy. I tu zaczęły się schody. Wyniki badania opublikowane w magazynie naukowym Nature pokazują, że nasze preferencje dotyczące tego kto ma przeżyć są zmienne. Bazują na kulturze danego kraju czy regionu, ekonomicznych i społecznych warunkach, a także położeniu geograficznym.
Kto ma przeżyć / Kto ma zginąć
Niezależnie od wszystkich powyższych czynników da się wyróżnić trzy najmocniejsze trendy, które mogą stanowić podbudowę dla etyki inteligentnych maszyn. Są to: życie ludzi wydaje się ważniejsze od życia zwierząt, życie dużych grup preferowane jest ponad życie jednostki oraz życie młodszych ważniejsze jest od życia starszych. Punktów spornych jest jednak dużo więcej niż punktów wspólnych. Fundamentalne różnice o charakterze kulturowym widać po wyodrębnieniu trzech dużych rejonów geograficznych na bazie udzielonych odpowiedzi:
- Zachodni (Ameryka Płn. i Europa Zachodnia)
- Wschodni (Azja Wschodnia i kraje islamskie)
- Południowy (Kraje Latynoamerykańskie i frankofońskie)
Dla przykładu mieszkańcy Chin, Japonii czy Południowej Korei (rejon wschodni) dużo częściej wykazywali chęć oszczędzenia osoby starszej. Może to wynikać z mocno osadzonego w kulturze azjatyckiej szacunku dla starszyzny. Dla kontrastu w wielu krajach rejonu zachodniego (USA i Europa Zachodnia) badani wskazywali na wyższy odsetek osób młodszych, które bez względu na konsekwencje miałby oszczędzić w swoich błyskawicznych kalkulacjach autonomiczny pojazd.
Z kolei uczestnicy badania z rejonu południowego dużo częściej wskazywali na osobę otyłą, która miałaby poświęcić swoje życie kosztem osoby chudej. W krajach o wysokim wskaźniku nierówności ekonomicznej (Wenezuela i Kolumbia) ludzie decydowali oszczędzić życie biznesmena, niż osoby bezdomnej. Państwa o prymacie przestrzegania prawa (Japonia i Niemcy) decydowały na niekorzyść osób naruszających przepisy ruchu drogowego. W ogólnym rozrachunku większość ankietowanych oszczędzała kobiety, a zabijała mężczyzn. Szansę na nowe życie częściej dostawały psy niż koty. Co ciekawe, gdyby autonomiczny pojazd na bazie wyników MIT Media Labs miałby wybrać między psem, a kryminalistą, poświęci życie człowieka.
Autonomia pojazdów z ludzką twarzą
Pierwszym krajem, który podjął się tematu zdefiniowania etycznych podstaw dla autonomicznego transportu przyszłości są Niemcy. Tam już pod koniec sierpnia 2017 roku rządowa komisja pod kierownictwem profesora Udo Di Fabio, byłego sędziego Federalnego Trybunału Konstytucyjnego, opublikowała raport ze wskazówkami dla budowy etycznych autonomicznych pojazdów. Jedna z dwudziestu propozycji uwzględnionych w raporcie rzuca się w oczy:
“W sytuacji wypadku, którego nie da się uniknąć, rozróżnianie uczestników na bazie indywidualnych cech (wiek, płeć, status fizyczny i psychiczny) powinno być surowo wzbronione”.
Udo Di Fabio nie wydaje się specjalnie zaskoczony wynikami badania MIT Media Labs, które wręcz nasycone są uprzedzeniami. Jego zdaniem filozofowie oraz prawnicy mają zazwyczaj inny poziom rozumienia etycznych dylematów niż zwykli ludzie. O ile ta różnica może denerwować specjalistów, stanowi też dla nich ważny sygnał. Jednocześnie Di Fabio wierzy, że nie należy składać broni w kwestii ludzkich uprzedzeń. Szczególnie w kontekście spraw ważących o życiu i śmierci.
Tymczasem decyzje podejmowanie przez niemieckie władze mogą rezonować daleko poza terenem naszych zachodnich sąsiadów. Grupa Volkswagena w 2018 roku ponownie sprzedała więcej samochodów, niż jakikolwiek inny producent na świecie (10,8 mln aut). Za gigantycznym sukcesem podąża gigantyczna odpowiedzialność. Jak twierdzi Azim Shariff z zespołu MIT Media Labs, który brał udział w tworzeniu Moral Machine, producenci aut autonomicznych powinni dostosowywać swoje produkty do potrzeb konkretnych rynków, w tym również pod kątem etycznym.
Z drugiej strony Udo Di Fabio obawia się manipulowania przy algorytmach, szczególnie ze strony krajów o ustroju autokratycznym. Wizualizuje przy tym sytuację, w której chiński rząd będzie preferować auta zgodne z systemem Credit Score, który od 2020 roku obejmie swoim zasięgiem 1,5 mld obywateli i będzie stanowić swoisty wyznacznik przydatności społecznej. Nietrudno wyobrazić sobie sytuację, w której auto będzie bronić życia osoby o wyższym wskaźniku.
Edukować pieszych zamiast technologii
Niektórzy eksperci sugerują inną metodę poradzenia sobie z potencjalnymi sytuacjami bez wyjścia. Być może konieczne będzie edukowanie pieszych o zasadach poruszania się w obrębie autonomicznych pojazdów. Innymi słowy – problem nie tkwi w niedopracowanych samochodach autonomicznych, ale w nieprzewidywalnych zachowaniach ludzi. Przekaz serwowany przez Andrew Ng, eksperta w dziedzinie uczenia maszynowego i właściciela startupu Drive.AI jest prosty: przekonywać pieszych do przestrzegania przepisów.
Przypomina tutaj, że ludzkość w swojej historii już wiele razy musiała dostosować się do nowej technologii, w szczególności środków transportu. Stosowny przykład przywołuje Peter Norton, profesor historii na Uniwersytecie Wirginii. Przechodzenie przez jezdnię w niedozwolonym miejscu stało się przestępstwem w USA dopiero na skutek lobbingu przemysłu samochodowego we wczesnych latach 20. XX wieku. Obawiano się, że niskie limity prędkości oraz inne przepisy mogą ograniczyć sprzedaż aut.
ŹRÓDŁA:
- https://www.nature.com/articles/s41586-018-0637-6#Sec5
- http://moralmachine.mit.edu
- https://thenextweb.com/syndication/2019/01/09/how-driverless-cars-choose-who-to-kill-is-an-ethical-dilemma/
- https://www.newyorker.com/science/elements/a-study-on-driverless-car-ethics-offers-a-troubling-look-into-our-values
- MIT Self-Driving Cars: State of the Art (2019) – https://youtu.be/sRxaMDDMWQQ
- https://www.bmvi.de/SharedDocs/EN/PressRelease/2017/084-ethic-commission-report-automated-driving.html
- https://www.bloomberg.com/news/articles/2019-01-30/volkswagen-keeps-global-sales-crown-as-toyota-fails-to-catch-up
- https://www.bloomberg.com/news/articles/2018-08-16/to-get-ready-for-robot-driving-some-want-to-reprogram-pedestrians