Maszyny wyposażone w zmysł moralny to przyszłość inteligentnej robotyki – uważa wielu entuzjastów nowych technologii. Jednak trudno znaleźć przekonujące argumenty za taką tezą

Który sympatyk science-fiction nie zna Roya Batty’ego – jasnowłosego replikanta granego w „Blade Runnerze” przez Rutgera Hauera – i jego słynnego monologu wygłaszanego w strugach deszczu pod koniec filmu?

– Widziałem rzeczy nie do uwierzenia dla ludzi – mówi android do polującego nań Ricka Deckarda, któremu niedługo wcześniej ocalił życie. – Wszystkie te chwile rozpłyną się w czasie jak łzy na deszczu. Czas umierać.

Kłopotliwe dziedzictwo Frankensteina

Przejmujące słowa Batty’ego, który choć przedtem bezwzględnie rozprawiał się ze swoimi prześladowcami, to teraz – tuż przed śmiercią, gdy utracił wszystkich towarzyszy – nagle przejawia nadzwyczaj ludzkie uczucia, kazały widzom stawiać sobie pytania o istotę i granicę człowieczeństwa.

Co sprawia, że jako ludzie jesteśmy lepsi od myślących maszyn? Czy możemy sobie rościć prawo do kontroli nad życiem istot, które sami stworzyliśmy? Gdzie przebiegają granice autonomii sztucznego człowieka?

Podobne pytania towarzyszyły ludzkości na długo przed powstaniem komputerów i sztucznej inteligencji. Wystarczy przypomnieć legendę o Golemie czy opowieść o potworze Frankensteina, obie powstałe w XIX wieku, a w późniejszych latach niezliczoną ilość razy przywracane do życia w różnych adaptacjach. Podobnie jak w filmie Ridleya Scotta, pojawia się w nich pytanie o odpowiedzialność za sztuczne życie powołane do istnienia przez człowieka oraz o granice, które mamy prawo mu narzucać.

Adres filmu na Youtube: https://www.youtube.com/watch?v=JdUq2opPY-Q

Finałowy monolog Roya Batty’ego w filmie „Blade Runner”
Źródło: Diego R. / YouTube

Takie efektowne przedstawienia z literatury czy filmu łatwo zaszczepiają się w zbiorowej wyobraźni. Dzieje się tak szczególnie wtedy, gdy postęp technologiczny przyspiesza i zdaje się prowadzić nas coraz bliżej do urzeczywistnienia historii opowiadanych przez mistrzów pióra czy kamery. Nic więc dziwnego, że i dziś coraz głośniej wybrzmiewają postulaty mówiące o potrzebie obdarzenia maszyn morlanością, czyli stworzenia tzw. sztucznych moralnych agentów (artificial moral agents, AMA).

Natura ludzka? A co to takiego?

Przekonanie o możliwości wbudowania w maszyny moralności budzi jednak opory wielu ekspertów – przede wszystkim filozofów i etyków. Część z nich przekonuje, że taki pomysł nie ma uzasadnienia na gruncie filozoficznym czy naukowym. Główne argumenty dotyczą zwykle tego, że roboty – w przeciwieństwie do ludzi – są odgórnie zaprogramowane i tym samym nie posiadają wolnej woli, która cechuje człowieka.

Argument ten – uzupełniany niekiedy twierdzeniem o jakościowej odmienności człowieka od maszyny (ucieleśnienie i cielesno-umysłowo spoistość) – często spotyka się z odporem zwolenników moralności robotów, którzy twierdzą, że wolna wola to iluzja. Oto ludzkie zachowanie nie jest wcale wolne, ale zdeterminowane przez różnorodne czynniki: społeczną konwencję, normy wychowawcze czy wreszcie biologię, czyli geny. Zwolennicy takiego podejścia twierdzą, że wiele różnych sił wywiera wpływ na człowieka, co czyni go narzędziem natury czy społeczeństwa, a nie samodzielnym, niezależnym podmiotem. Cóż więc stoi na przeszkodzie, by w takiej sytuacji myśleć o dowartościowaniu maszyn, szczególnie gdy staną się one równie inteligentne co ludzie?

Podobna dyskusja siłą rzeczy dość szybko przekształca się w spór na temat natury ludzkiej, a ten trwa od tysiącleci i zapewne nigdy się nie skończy. O tym, że nasza samowiedza i samokontrola nie są całkowite, wiemy przecież nie od dziś. Wygląda więc na to, że na tym gruncie kategoryczne rozstrzygnięcie co do różnic między człowiekiem a maszyną może być trudne – szczególnie gdy mowa o zaawansowanych maszynach przyszłości. Ważną rolę odgrywają tu bowiem także indywidualne przekonania. Ktoś stojący na stanowisku skrajnie materialistycznym, uważający człowieka wyłącznie za zbiór komórek połączonych ewolucyjnie w sprawny mechanizm, będzie zapewne bardziej skłonny myśleć o człowieku jak o swego rodzaju maszynie niż np. reprezentant katolickiego personalizmu. Czy zatem w sporze o moralność maszyn skazani jesteśmy na impas?

Postawmy praktyczne pytania

Niekoniecznie. Na problem robotów i moralności można bowiem spojrzeć z innej strony niż tej wyznaczanej przez pytania o naturę czy istotę człowieczeństwa. Chodzi o podejście bardziej funkcjonalne czy pragmatyczne. Wystarczy bowiem zapytać nie o to, czym różni się robot od człowieka, ale po co mielibyśmy w ogóle obdarzać maszyny moralnym zmysłem. Takie właśnie pytanie postawiło dwoje filozofów z Uniwersytetu Technicznego w Delft – dr Aimee van Wynsberghe i Scott Robbins.

W swoim artykule przekonują oni, że przejście od ogólnych dyskusji o podstawach filozoficznych dotyczących różnic między człowiekiem a robotem do konkretnych argumentów na rzecz wyposażenia maszyny w zmysł moralny może ułatwić ocenę propozycji wysuwanych przez zwolenników AMA. Przyjrzyjmy się im bliżej.


Zwolennicy obdarzania robotów moralnością twierdzą, że rozwój robotyki i sztucznej inteligencji doprowadzi w niedługim czasie do sytuacji, w której maszyny będą funkcjonować w sytuacjach moralnie wrażliwych (morally salient). Dlatego też powinno się prowadzić prace nad umożliwieniem im moralnego rozumowania i podejmowania decyzji w tym zakresie bez bezpośredniego udziału człowieka. Jak wyjaśniają badacze z Uniwersytetu w Delft, powody, dla których powinno się prowadzić takie prace, podawane przez zwolenników AMA mogą się wydawać bardzo przekonujące, jako że są ze sobą powiązane i w ten sposób wzajemnie się wzmacniają. Aby móc obiektywnie ocenić ich podstawy, autorzy proponują więc przyjrzeć się każdemu z nich z osobna.

• Nieuchronność – zdaniem wielu zwolenników wyposażania robotów w moralność, maszyny będą coraz częściej występować w środowiskach nacechowanych moralnie, stąd rozwój AMA jest nieunikniony.
• Ochrona ludzi przed maszynami – roboty uczestnicząc w sytuacjach moralnie wrażliwych mogą człowieka skrzywdzić, dlatego powinny zostać wyposażone w zdolność rozumowania moralnego.
• Złożoność – roboty będą stawały się coraz bardziej skomplikowane pod względem programistycznym i tym samym trudniejsze do zrozumienia, stąd potrzeba, by zaszczepić w nich moralny zmysł, abyśmy mieli pewność, że postępują właściwe.
• Społeczne zaufanie – wyposażenie robotów w kompetencje moralne ograniczy lęki i doprowadzi do społecznej akceptacji robotów w sytuacjach moralnie wrażliwych.
• Ochrona maszyn przed niemoralnym wykorzystaniem – robot musi mieć możliwość przeciwdziałania próbom wykorzystania go przez ludzi niezgodnie prawem czy moralnymi normami.
• Zwiększenie moralnego postępowania dzięki maszynom – roboty rozumują lepiej od ludzi, bo są wolne od wielu ludzkich cech, takich jak emocje, stronniczość, nieracjonalność czy niespójność, dlatego warto wyposażyć je w mechanizm moralnych decyzji.
• Lepsze rozumienie ludzkiej moralności – programując moralne maszyny będziemy mogli lepiej zrozumieć, na czym polega moralność, a w efekcie udoskonalić samych siebie.

Na pozór najmocniejszymi argumentami na rzecz rozwijania moralnych robotów są powody wymienione na samym początku. Oto rozwój coraz bardziej zaawansowanych maszyn i stosowanie ich w sytuacjach moralnie znaczących (np. w szpitalach czy w szkołach) wydaje się wręcz wymuszać ich moralne zaprogramowanie, tak by nie czyniły szkody ludziom, z którymi będą współdziałać.

Bezpieczne, nie moralne

Taki tok myślenia jest jednak tylko pozornie sensowny, przekonują badacze z Delft. Oto bowiem łatwo znaleźć kontrprzykłady, w których funkcjonowanie w sytuacji moralnie wrażliwej nie wymaga od wszystkich jej uczestników posiadania zmysłu moralnego – wystarczy prosta skuteczność.

Adres filmu na Youtube: https://www.youtube.com/watch?v=-Sh7Yz7JZZ8

dr Aimee van Wynsberghe: The Ethics of Ethical Robots
Źródło: Rotman Institute of Philosophy / YouTube

Weźmy przykład psów wykorzystywanych w celach terapeutycznych. Terapia osób starszych czy niepełnosprawnych to bezdyskusyjnie sytuacja nacechowana moralnie. Czy jednak w związku z tym, że pies nie posiada zdolności moralnej oceny sytuacji, ktoś podważyłby sensowność jego pomocy w tym kontekście? Nie, wyjaśniają autorzy, ponieważ kluczowym kryterium jest tutaj właściwa tresura zapewniająca bezpieczeństwo, a nie zmysł moralny.

Wystarczy więc, że roboty będą wyposażone w odpowiednie zabezpieczenia, a także że kontrolę nad nimi wciąż będą sprawować ludzie – tak choćby jak w przypadku aparatury podtrzymującej życie. Posiadanie zmysłu moralnego nie jest tu ani nieuniknione, ani niezbędne dla przeciwdziałania ewentualnym szkodom.

A co ze złożonością i nieprzewidywalnością autonomicznych maszyn, które utrudniają zrozumienie ich działania, co znamy choćby z problemu czarnej skrzynki? Czy wyposażenie robotów w możliwość moralnego rozumowania nie byłoby w tym kontekście dobrym rozwiązaniem?

Nie bardzo, przekonują van Wynsberghe i Robbins. Znacznie lepszym pomysłem jest zawężenie kontekstu, w którym maszyny będą wykorzystywane, tak by ograniczyć ewentualne szkody. W końcu nawet w przypadku ludzi, którzy dowiedli swoim zachowaniem, że są niebezpieczni, społeczeństwo stosuje środki zapobiegawcze w postaci przymusowego odosobnienia. Dlaczego zatem mielibyśmy się godzić na wszechobecność nieprzewidywalnych maszyn w naszym świecie?

Zaufanie? Tylko do ludzi

Naukowcy z Uniwersytetu w Delft są równie sceptyczni wobec argumentu dotyczącego wzrostu zaufania wobec maszyn wyposażonych w moralny kompas i społecznej akceptacji wobec takich rozwiązań.

Przyjęcie czegoś przez społeczeństwo nie zawsze jest przecież równoznaczne z tym, że to coś jest automatycznie moralnie akceptowalne. Przykład? Wielu użytkowników smartfonów w praktyce godzi się na wykrywanie geolokalizacji czy śledzenie aktywności przez twórców aplikacji, ale działania te trudno uznać za naprawdę akceptowalne w świetle wartości leżących u podstaw naszego życia społecznego, jak np. prawo do prywatności. Czy fakt, że wielu ludzi wiodło w miarę normalne życie w komunistycznej czy nazistowskiej dyktaturze, oznacza, że sama dyktatura była przez nich uważana za akceptowalną? Nie, po prostu nie wszyscy decydowali się na czynny opór, lecz to nie znaczy, że uznawali reżim za pożądany.

Co więcej, autorzy przywoływanego artykułu przekonują, że zaufanie jest pojęciem odnoszącym się przede wszystkim do relacji międzyludzkich. W przypadku technologii i algorytmów powinniśmy raczej mówić o tym, że możemy na nich polegać. Przecież jeśli zepsuje się nam samochód, nie uważamy, że zdradził nasze zaufanie. Jesteśmy raczej rozczarowani zawodnością maszyny, a zaufanie stracić możemy ewentualnie do nierzetelnego mechanika. W przypadku robotów czy algorytmów nasze zaufanie odnosi się więc do ich twórców, którzy powinni dbać o to, by budowane przez nich systemy były transparentne, a nie do samych narzędzi.

Równie chybione są zdaniem obojga badaczy argumenty zwolenników moralnych robotów odnoszące się do zabezpieczania ich w ten sposób przed ewentualnymi nadużyciami ze strony ludzi. Największym ryzkiem jest tu bowiem ograniczanie ludzkiej autonomii.

Ponadto wiele dylematów moralnych dowodzi, że często trudno jest znaleźć właściwe rozstrzygnięcie etycznego problemu. Najbardziej znanym przykładem jest tu tzw. dylemat wagonika, w którym trzeba zdecydować, czy można poświęcić życie jednej osoby dla ratowania kilku innych. W zależności od przyjętych założeń odpowiedź na to pytanie może być zupełnie różna. Co więcej, w podobnych sytuacjach w realnym życiu decyzja zapada często odruchowo i jest to poniekąd odpowiednik ślepego trafu. W przypadku zaprogramowania moralnego maszyny takie losowe rozwiązanie raczej nie wchodziłoby w grę.

Moralność nie dla algorytmów

Obecność dylematów moralnych czy różnych szkół w filozofii moralnej (jak deontologia, utylitaryzm czy etyka cnót) stawiają też pod znakiem zapytania możliwość wypracowania jednoznacznych, uniwersalnych zasad etycznych, które nie tylko miałyby służyć maszynom, ale – jak chcą tego niektórzy zwolennicy autonomicznych moralnych agentów – także ludziom w lepszym zrozumieniu naszej moralności.

Tymczasem moralność nie jest czymś, co da się łatwo zalgorytmizować, i pozostaje niekiedy przestrzenią nierozstrzygalności. Jest też cechą swoiście ludzką, nawet przy założeniu naszej emocjonalności i nieracjonalności. O lwie atakującym antylopę nie powiemy przecież, że jest niemoralny. Jego działanie determinuje instynkt. Tymczasem decyzja o jedzeniu bądź niejedzeniu mięsa w przypadku człowieka może już być przedmiotem rozważań etycznych.

Co z tego wszystkiego wynika?

O ile roboty i sztuczna inteligencja mogą i powinny być używane w kontekstach moralnie wrażliwych, o tyle na razie nie ma żadnego powodu, by sądzić, że powinny one zarazem być moralnymi agentami. Ich potencjał może być bowiem wykorzystywany bez potrzeby rozwijania w nich kompetencji moralnych, przekonują badacze z Uniwersytetu w Delft.

Zarazem podkreślają oni znaczenie języka używanego w kontekście rozwoju technologii. Ich zdaniem mówienie o moralnych maszynach jest nieuzasadnione, mylące i szkodliwe. Taka antropomorfizacja, choć dopuszczalna w sztuce, w przypadku dyskusji o realnych zastosowaniach maszyn wiedzie na manowce. Gdy rozmawiamy o robotach, lepiej więc mówić po prostu o tym, że chcemy, by były raczej bezpieczne niż moralne. Wyjdzie to wszystkim na dobre: tak ludziom, jak i samym maszynom.