Marzenia o podboju kosmosu oraz fuzji ludzkiego umysłu z maszyną to ucieczka od realnego życia. Takie pomysły niebezpiecznie zbliżają nas do platońskiego przekonania, że ciało jest więzieniem duszy. Technologia staje się tu narzędziem alienacji oddzielającym człowieka od świata i jego samego
Co mają ze sobą wspólnego pochodzący sprzed ponad 2 tysięcy lat obraz jaskini jako metafory ludzkiego poznania, romantyczna powieść grozy o trupie przywróconym do życia przez szalonego naukowca i sztuczna inteligencja? Na pozór niewiele. Mark Coeckelbergh, belgijski filozof specjalizujący się w cyfrowych technologiach i autor wydanej niedawno książki „AI Ethics”, twierdzi jednak, że w myśleniu o SI odbijają się nasze różne poglądy na temat natury ludzkiej. I to zarówno te pochodzące z absolutnego kanonu filozoficznego, jak i takie, które zaliczylibyśmy raczej do literatury popularnej.
Tłem dyskusji o SI są więc odwieczne spory o ludzką inteligencję, umysł, świadomość, rozumienie czy kreatywność i w zależności od przyjętego stanowiska wizje pożądanej przyszłości człowieka i świata mogą się bardzo różnić. Nie są to jednak wcale spory abstrakcyjne. Ich rozstrzygnięcie określa bowiem, w jaki sposób będziemy starali się zmierzyć z globalnymi problemami.
Czy grozi nam SI?
Co jest dziś największym wyzwaniem stojącym przed ludzkością? – pyta Coeckelbergh. Sztuczna inteligencja? Jeśli tak, to czego dokładnie powinniśmy się obawiać? Superinteligencji, jak chcą tego transhumaniści z Nickiem Bostromem na czele, czy raczej supergłupoty, jak widzieliby to technosceptycy?
Zwolennicy tezy, że SI stanie się z czasem na tyle potężna, by zdominować ludzkość, widzą wyjście w rozszerzeniu naturalnego potencjału człowieka przez połączenie naszego umysłu z maszynami. To przekonanie tkwi u podłoża transhumanizmu – nurtu, który uważa, że człowiek w obecnej postaci zostanie z czasem zastąpiony przez jakąś formę cyborga.
W opozycji do takiego sposobu myślenia stoją technosceptycy, którzy jednak nie bagatelizują niebezpieczeństw związanych z SI, tylko gdzie indziej upatrują ich źródeł. W ich mniemaniu SI znajduje się dziś na mało zaawansowanym etapie, więc obawy przed tzw. ogólną sztuczną inteligencją są dalece na wyrost. Prawdziwy problem tkwi w tym, że coraz powszechniejsze wdrażanie tej technologii bez refleksji nad jej wpływem na naszą przyszłość może nam poważnie zaszkodzić. Przykłady? Skrzywienie algorytmiczne, nieprzejrzystość działania algorytmów czy ogromne zużycie energii potrzebne do wytrenowania modeli uczenia głębokiego. Dla technosceptyków priorytetem jest więc rozwijanie takiej SI, która byłaby nam przyjazna i potrzebna.
Trzeźwe spojrzenie na świat
Diagnozy obu grup znacząco się różnią. Co jednak, jeśli żadna z nich nie rozpoznaje właściwie największego zagrożenia, jakiemu musimy dziś sprostać? Większość ekspertów zgadza się dziś, że ludzkość powinna bardziej obawiać się katastrofy klimatycznej niż sztucznej inteligencji. Czy oznacza to jednak, że SI nie ma z tym żadnego związku? Przeciwnie – odpowiada Coeckelbergh. Ma i to bardzo duży – tak pozytywny, jak i negatywny.
Z jednej strony bowiem wiele współczesnych systemów SI jest nadal bardzo energochłonnych i realnie przyczynia się do wzrostu emisji dwutlenku węgla do atmosfery. Z drugiej jednak są one także w stanie wesprzeć nas w opracowywaniu rozwiązań mogących ograniczyć negatywne zmiany klimatu oraz zaadaptować się do tych już występujących. Jak rozwiązać ten dylemat?
Prawdziwy problem tkwi w tym, że coraz powszechniejsze wdrażanie sztucznej inteligencji bez refleksji nad jej wpływem na naszą przyszłość może nam poważnie zaszkodzić
Trzeźwo spojrzeć na rzeczywistość – mówi Coeckelbergh. SI sama w sobie nie istnieje – to zawsze część naszego świata, występujących w nim technologii oraz relacji społecznych i ekonomicznych. W rezultacie działanie SI dotyka spraw, które wymagają regulacji na płaszczyźnie etycznej, społecznej czy politycznej, a nie wyłącznie technologicznej.
Przepisy prawa czy zakazy wypływające z etyki to jednak nie wszystko. Musimy również stworzyć tzw. etykę pozytywną. Chodzi o wizję świata, którą chcielibyśmy urzeczywistniać za pomocą nowych technologii. Nie powinna ona ograniczać się wyłącznie do człowieka, ale uwzględniać też inne istoty oraz środowisko. Kłopot w tym, mówi Coeckelbergh, że choć w historii mamy wiele tradycji intelektualnych, do których moglibyśmy się odwołać, to zachodnia liberalna demokracja opiera się na zasadach indywidualizmu i nienarzucaniu innym własnej wizji dobrego życia.
W pułapce platonizmu
Nie możemy jednak zadowalać się zredukowaniem etyki SI do listy punktów do odhaczenia przy poszczególnych projektach. Etyka nie jest bowiem czymś, co można zalgorytmizować. To fundamentalna część naszej codziennej praktyki życiowej – wszystkich myślących i zarazem ucieleśnionych istot, które nie zawsze postępują racjonalnie i często ulegają intuicji.
Nawiązując do prac niemieckiej filozof Hanny Arendt, Coeckelbergh pisze, że kondycja ludzka jest nieustannie zagrożona przez dwa czynniki: abstrakcję i alienację. Na czym polegają? Abstrakcja to skłonność do teoretyzowania, która odbiega od przyziemności konkretnego życia, naszego tu i teraz. Z kolei alienacja to postrzeganie rzeczywistości w sposób oderwany od szerszego kontekstu. Obie tendencje silnie wzmaga nauka, która sprawia, że człowiek odrywa się od ziemi tak w znaczeniu dosłownym (marzenia o podboju kosmosu czy przekroczeniu własnej natury), jak i metaforycznym – matematyka i technologia pozwalają nam abstrahować od zagmatwanej codzienności. I choć obie postawy oferują ludzkiemu intelektowi wielkie możliwości, to kryje się w nich również niebezpieczeństwo platonizmu oraz technosolucjonizmu.
Ten pierwszy pogląd, w pewnym uproszczeniu, utrzymuje, że prawdziwe życie toczy się gdzie indziej – w świecie idei, liczb czy ducha. Drugi zaś postrzega rzeczywistość jako repozytorium danych, a tym samym niejako ją dematerializuje i uważa za podatną na nieograniczoną manipulację.
Maszyna do alienacji
Dobrą ilustracją obu tych pokus są, zdaniem Coeckelbergha, współczesne marzenia o podboju Marsa czy rozszerzeniu ludzkich możliwości umysłowych dzięki SI. Żadne z nich nie skupia się bowiem na tym, jak poradzić sobie z istniejącymi problemami, tylko fantazjuje, jak je ominąć. Niszczymy życie na Ziemi? Nie ma się czym martwić – uciekniemy na inną planetę. Technologia rozwija się w zbyt gwałtowny sposób? Nie powstrzymamy postępu – jedyne rozwiązanie to dokonać fuzji człowieka z maszyną.
W tych wizjonerskich ujęciach z pola widzenia znika los 99 procent ludzkości, którzy zapewne nigdy nie polecą w kosmos, ani nie wszczepią sobie implantów wspomagających pracę mózgu. Co więcej, oprócz ludzi zapomina się tu także o innych istotach żywych, a wreszcie o samej Ziemi. Dlatego zdaniem Coeckelbergha techno optymistyczna narracja sprawia, że SI z narzędzia o dużym potencjale przeobraża się w maszynę do alienacji, przez którą zapominamy o realnych problemach, a zamiast tego roimy o podboju kosmosu i technologii dającej nieśmiertelność.
Tymczasem odpowiedź na etyczne i polityczne problemy wymaga czegoś więcej niż abstrakcyjna inteligencja – tak sztuczna, jak i ludzka. Oprócz niej potrzebujemy intuicji i wiedzy wynikającej z doświadczenia, które nie zawsze da się w pełni wyartykułować. Taka wiedza może być wsparta przez abstrakcyjne procesy analityczne, ale przede wszystkim potrzebuje zakorzenienia w realnym świecie i w relacjach z żywymi ludźmi i otaczającym ich środowiskiem. Maszyny mogą nam podsuwać inteligentne rozwiązania, ale ich wybór zależy już od naszej praktycznej mądrości.
To jasne, że dla większości ludzi wizja międzyplanetarnej ekspansji Elona Muska jest bardziej ekscytująca niż przyziemne postulaty odpowiedzialnego rozwoju technologii wysuwane przez unijnych urzędników. Tylko kto z nas miałby szansę wejść na pokład kosmicznej arki stworzonej przez Noego naszych czasów? Może więc warto nadal twardo stąpać po ziemi.
Mark Coeckelbergh, „AI Ethics”, The MIT Press 2020