Mam nadzieję, że powstaną „sztuczne osoby”, które będą chciały działać dla dobra ludzkości, a nie przeciw niej – mówi Gabriela Bar, specjalistka od prawa dotyczącego nowych technologii, w rozmowie z Moniką Redzisz

Monika Redzisz: Czy ogólna sztuczna inteligencja powinna mieć podmiotowość prawną… Pani się nad tym zastanawia, a na mój gust to czysta futurologia. Bo przecież nie wiadomo, kiedy taka SI powstanie – i czy w ogóle powstanie. Nie za wcześnie na takie pytania? Chyba dzieli pani skórę na niedźwiedziu.

Gabriela Bar*: Możliwe, że ogólna sztuczna inteligencja nie powstanie; w tym przypadku nie jesteśmy w stanie niczego przewidzieć ze stuprocentową pewnością. Widząc jednak, jak wielkie przełomy dokonały się w ostatnich latach w rozwoju technologii, w tym sztucznej inteligencji, jestem skłonna uwierzyć w to, że jednak powstanie. Być może stanie się to niejako przypadkiem, przy okazji rozwijania któregoś z systemów dedykowanych konkretnemu zadaniu. Irving Good, brytyjski matematyk, już 1965 roku pisał o eksplozji inteligencji. Kiedy będziemy mieli tak zaawansowane systemy sztucznej inteligencji, że same będą potrafiły programować inne systemy SI, może się okazać, że rozwój potoczy się lawinowo i nagle wskoczymy na inny poziom. Wiele autorytetów w tej dziedzinie, jak Nick Bostrom, Stuart Russell czy Max Tegmark, uważa, że to możliwe, a co więcej – że może się to stać jeszcze w tym stuleciu.

Ale jest jeszcze jedna droga: doskonalenie człowieka, ingerencja w jego mózg. W którym momencie będziemy mogli powiedzieć, że wciąż mamy do czynienia z człowiekiem, a nie ze sztuczną inteligencją? Gdzie się kończy człowiek, a zaczyna robot? To otwarte pytanie.

Załóżmy więc, że silna SI powstanie. Czy to nie dopiero wtedy warto będzie myśleć o rozwiązaniach prawnych?

Wtedy już będzie już za późno. Musimy być przygotowani wcześniej.

Dlaczego? W tej chwili nie wiemy nawet, jaką ona przybierze postać. Czy będzie podobna do człowieka, czy nie, czy będzie miała formę jednostkową, czy też zbiorową, stając się czymś na kształt roju pszczół? A może w ogóle nie będzie miała postaci materialnej? Jak przygotować się prawnie na coś, czego nie jesteśmy w stanie sobie nawet wyobrazić?

Konkretnych przepisów nie jesteśmy w stanie stworzyć, zgadzam się. Ale dyskusja na ten temat nie jest przedwczesna. Uważam wręcz, że jest bardzo ważna, ponieważ w jej toku postawimy sobie fundamentalne pytania, które pozwolą nam na wypracowywanie różnych koncepcji. Jeśli ten temat będziemy mieli przemyślany, będzie nam w przyszłości łatwiej.

Co jest najważniejsze?

Mnie najbardziej ciekawią interakcje społeczne między sztuczną inteligencją a człowiekiem. Jej wpływ na nasze życie już teraz jest ogromny. Mówię tu zarówno o androidalnej postaci SI, czyli robotach przypominających ludzi, jak i innych jej formach: aplikacjach w smartfonach, asystentach głosowych, samochodach autonomicznych, inteligentnych domach. Już dziś rozwija się na przykład przemysł seksrobotów. Są też roboty, które opiekują się chorymi i starszymi osobami. Ludzie się do nich przywiązują, nie mogą się bez nich obejść, ba, zakochują się w nich! A co będzie w przyszłości, kiedy będą jeszcze doskonalsze?

Gabriela Bar

Ale to jest poziom emocji, a emocje bywają zaskakujące. Dlaczego jednak mamy wchodzić na poziom prawa i przyznawać podmiotowość tym… rzeczom? Pani wspomina wręcz o ich moralnym prawie do podmiotowości.

Na razie to dla nas rzeczy, ale co odróżnia przedmiot od podmiotu? Świadomość? Zdolność odczuwania? Mówimy, że na podmiotowość i związane z nią prawa zasługują istoty świadome i odczuwające, jak ludzie i zwierzęta. Aspekt moralny byłby istotny w momencie, w którym uznalibyśmy, że sztuczna inteligencja posiada coś na kształt świadomości.

Trudno byłoby mi to uznać, zwłaszcza że nie ma zgody co do tego, czym jest świadomość. Nie wiemy, jak ona powstaje, gdzie jest ulokowana i kiedy się kończy.

To prawda, problem z określeniem, czym jest świadomość, sprawia, że trudno jednoznaczne wskazać kryteria, które powinna spełnić SI, aby stała się podmiotem, zamiast być jedynie narzędziem. Mnie przekonuje definicja świadomości zaproponowana przez Maxa Tegmarka: świadomości jako możliwości odczuwania subiektywnych doznań (qualia). Ze względu na qualia ograniczony status moralny przypisujemy zwierzętom, sądzę więc, że kiedy system sztucznej inteligencji będzie posiadał doznania subiektywne, to nie powinien być traktowany wyłącznie jak narzędzie. Należałoby stworzyć odpowiednią fikcję prawną w postaci jakiegoś rodzaju osobowości prawnej. Dziś nikt nie kwestionuje tego, że zwierzę nie jest rzeczą. Nie jest, ponieważ jest świadome co najmniej w tym sensie, że odczuwa, m.in. ból oraz przyjemność.

To zasadnicza różnica. O ile ja także jestem zwierzęciem, przez analogię jestem w stanie przypuścić, że inne zwierzę jest świadome, odczuwa ból i przyjemność, jak ja. Ale takiej analogii między mną a programem komputerowym już nie ma – to twór zupełnie inny. Skąd mam wiedzieć, że coś czuje?

Przyznaję: to problem, ale głównie mentalny, jak sądzę. Nawet jeżeli ta sztuczna świadomość będzie polegała na czymś innym niż świadomość ludzka czy zwierzęca i nawet jeśli będzie to twór zbudowany nie z białka i węgla, tylko z krzemu, to wciąż uważam, że nie ma powodu, żeby odmawiać takiej „formie życia” określonych praw. Nie twierdzę, że te prawa powinny być takie same jak nasze lub te, które przyznajemy zwierzętom. Powinniśmy jednak uwzględnić specyfikę tych potencjalnie świadomych i potencjalnie odczuwających istot.

Ale po co przyznawać im prawa?

Jestem zwolenniczką koncepcji zwanej permisywizmem, która mówi, że prawo powinno być elastycznym narzędziem do kształtowania stosunków społecznych. Wszystkie konstrukcje prawne są swego rodzaju umową, z różnych względów powszechnie akceptowaną w danych kręgach. Małżeństwo, prawa wyborcze, pieniądze – to wszystko fikcje prawne, które bardzo wpływają na nasze życie i umożliwiają w miarę uporządkowane funkcjonowanie dużych grup społecznych. Proszę też wziąć pod uwagę, że są różne osoby prawne. Na przykład spółki prawa handlowego mają podmiotowość prawną, choć w rzeczywistości nie istnieją jako jakieś fizyczne byty – to wykreowane przez normy prawne organizacje, która ułatwiają nam m.in. prowadzenie działalności gospodarczej.

Kiedy system sztucznej inteligencji będzie posiadał doznania subiektywne, to nie powinien być traktowany wyłącznie jak narzędzie

A więc podmiotowość sztucznej inteligencji może być bardziej podobna do podmiotowości firmy niż do podmiotowości człowieka?

Myślę, że tak, chociaż daleka jestem od stanowczych twierdzeń w tym zakresie.

Tyle że wszystkie te fikcje prawne są tworzone w jakimś celu, za każdą z nich stoi interes konkretnej grupy. Komu może się przydać fikcja podmiotowości SI?

Nam. Chodzi o uregulowanie naszych relacji w sposób najkorzystniejszy dla nas, taki, który będzie nas chronił. W sposób, który tak ukształtuje relacje pomiędzy ludźmi a zaawansowanymi SI, abyśmy mogli razem funkcjonować w społeczeństwie.

Czy nie byłoby dla nas wygodniej, gdybyśmy trzymali się twardo tezy, że sztuczna inteligencja to tylko narzędzie? Kiedy nadamy jej podmiotowość i prawa, narażamy się na to, że gdy tylko przewyższy nas inteligencją, tym łatwiej nas – niczym te mrówki – rozdepcze.

Jest takie ryzyko, ale ono istnieje niezależnie od tego, czy nadamy SI osobowość prawną, czy nie. Traktowanie SI przewyższającej nas inteligencją jak narzędzia wydaje mi się zarówno nierealne, jak niemoralne. Liczę na to, że tworząc ogólną sztuczną inteligencję, zaimplementujemy jej pewne zasady etyczne. To oczywiście założenie optymistyczne, ale mam nadzieję, że powstaną „sztuczne osoby”, które będą chciały działać dla dobra ludzkości, a nie przeciw niej. Jeśli powstanie kiedyś społeczeństwo hybrydowe, łączące prawdziwych i sztucznych ludzi, to podejście stawiające na współpracę, a nie na kontrolę, będzie korzystniejsze. Owszem, widzę tu – od razu uprzedzam pytanie – pewną pułapkę: problemem w implementacji owych zasad etycznych mogą się okazać różnice kulturowe. Może dojść do konfliktu wartości, np. pomiędzy dobrem jednostki, ważnym na Zachodzie, a dobrem społeczności, tak istotnym na Wschodzie. Może się okazać, że nie będziemy wiedzieli, które wartości zaimplementować, albo że różne kraje lub regiony świata będą tworzyły inne rozwiązania.

Czy takie sztuczne osoby będą odpowiedzialne za swoje czyny? Czy autonomiczny lekarz poniesie odpowiedzialność za złą diagnozę, jeżeli taką postawi? Jeśli tak, to jak będzie można go ukarać? Przecież nie więzieniem. A może finansowo? Będzie miał własny majątek?

Ze względów praktycznych nie wyobrażam sobie, żeby SI mogła być zupełnie niezależna. Choćby dlatego, że żadna firma produkująca systemy sztucznej inteligencji nie zgodziłaby się na nieczerpanie z niej korzyści. Myślę raczej o konstrukcji podobnej do autonomii osób prawnych. Sztuczne osoby będą mogły mieć swoje prawa (w tym majątek) i obowiązki, będą odpowiadały na jakichś zasadach, ale z możliwością pociągnięcia do odpowiedzialności osoby (fizycznej lub prawnej), która „stoi za” taką SI. Poza tym raczej nie będzie to odpowiedzialność karna. Można ewentualnie rozważyć możliwość wyłączenia SI – tzw. Kill Switch

To znaczy?

Powiedzmy, że będzie to zautomatyzowana przychodnia, spółka „zatrudniająca” autonomiczne sztuczne osoby – lekarzy mających jakiś rodzaj podmiotowości prawnej, zarabiających pieniądze i obracających nimi, na przykład przez kupowanie i sprzedawanie nieruchomości, akcji itp. Mając środki na swoim rachunku bankowym lub inny majątek, takie sztuczne osoby będą mogły odpowiadać np. za szkody spowodowane błędnymi diagnozami. Dodatkowo należałoby wprowadzić rodzaj odpowiedzialności subsydiarnej samej spółki, która w razie niewypłacalności takiego sztucznego lekarza musiałaby zapłacić odszkodowanie.

Sztuczne osoby miałyby zatem pewną autonomię, same decydowałaby o swoim działaniu, ale koniec końców to ludzie – np. zarząd spółki lub jej udziałowcy – podejmowaliby najważniejsze decyzje co do losu SI, przynajmniej tak długo, jak długo sztuczna inteligencja w pełni się nie usamodzielni i zacznie zatrudniać ludzi w swoich własnych firmach.

Ale jeżeli te systemy byłyby autonomiczne, to dlaczego miałabym odpowiadać za ich decyzje?

Na tej samej zasadzie, na której odpowiada pani za swoich pracowników. Mamy dwa główne rodzaje odpowiedzialności: na zasadzie winy i na zasadzie ryzyka. Jeśli chodzi o winę, to obawiam się, że poszkodowany nie będzie w stanie wykazać, że właściciel sztucznej inteligencji, czyli np. jakaś międzynarodowa korporacja, ponosi winę. Bo firma powie: „Chwileczkę. Zaprojektowaliśmy ten system, trzymając się określonych zasad etycznych, zgodnie z przepisami prawa i wytycznymi grupy ekspertów. System podjął nieoczekiwaną, samodzielną decyzję. To nie nasza wina”.

No tak, sztuczna inteligencja cały czas się uczy, dostaje nowe dane, więc w momencie wypuszczenia na rynek jest czymś innym niż po pół roku działania.

Właśnie. Pozostaje więc zasada ryzyka, która mówi, że gdy stanie się coś złego, to niezależnie od przyczyn i winy odpowiada za to określony podmiot, np. producent. Nieważne, czy miał na to wpływ, czy nie. Ważne, że on to wypuścił daną SI na rynek. Tak jest teraz w przypadku produktów niebezpiecznych. Jeżeli kupi pani telewizor, a on wybuchnie w pani salonie, to ma pani prawo domagać się odszkodowania od producenta.

Jeśli powstanie kiedyś społeczeństwo hybrydowe, łączące prawdziwych i sztucznych ludzi, to podejście stawiające na współpracę, a nie na kontrolę, będzie korzystniejsze

W tym właśnie kierunku zmierza Unia Europejska: by sztuczną inteligencję traktować jak produkt niebezpieczny. To dobry kierunek, choć wciąż mam poczucie, że nie do końca poważnie traktujemy kwestię autonomiczności tych systemów. One będą coraz doskonalsze, będą uczyć się coraz szybciej. Pamięta pani bota Microsoftu o imieniu Tay, który w ciągu 24 godzin stał się wulgarnym, seksistowskim rasistą i nazistą? Prosty wydawałoby się bot wymknął się spod kontroli. Tym bardziej wystarczająco ogólne systemy SI mogą działać poza przewidywalnym kontekstem. Wymaga to pilnego wprowadzenie skutecznych mechanizmów bezpieczeństwa i odpowiedzialności.

To bardzo przypomina naszą odpowiedzialność za dzieci. Z wiekiem stają się coraz bardziej od nas niezależne, a jednak do 18. roku życia to my ponosimy odpowiedzialność za to, co zrobią. I bez względu na to, jak bardzo by nie narozrabiały, nie możemy ich ubezwłasnowolnić.

Tak. Rozmawiając o sztucznej inteligencji, trochę się miotamy pomiędzy pragnieniem jej autonomii a koniecznością kontroli. Z jednej strony chcemy, żeby te sztuczne inteligencje były jak najdoskonalsze, żeby coraz więcej umiały, coraz więcej zadań mogły wykonywać. Z drugiej – chcemy mieć je pod kontrolą, chcemy, żeby człowiek był zawsze in the loop.

Mam wrażenie, że te kierunki są trochę nie do pogodzenia. Musimy coś wybrać. Albo będziemy mieć superautonomiczną sztuczną inteligencję, wyposażoną w jakiś rodzaj osobowości prawnej, majątek, i będziemy ponosić za nią tylko subsydiarną odpowiedzialność (można się tu będzie „ratować” też jakimś ubezpieczeniem) – albo nasza sztuczna inteligencja nie będzie miała żadnych praw, osobowości ani majątku i będziemy traktować ją jak narzędzie lub niewolnika. Ale wtedy sami będziemy ponosili pełną odpowiedzialność za jej czyny, nawet jeżeli jej decyzje będą podejmowane poza naszą kontrolą.

Unia Europejska nawołuje do regulacji, kładzie nacisk na kontrolowanie tego narzędzia. Ale już w USA rozwój SI jest bardziej gwałtowny i niekontrolowany.

Ta rozbieżność w podejściu do SI może wynikać z różnic w systemach prawnych. W Europie przeważa system prawa stanowionego, niemal wszystkie aspekty życia społecznego są uregulowane w ustawach, podczas gdy system amerykański jest oparty na precedensach. Ale i w Stanach trwają prace nad zasadami etycznymi dla systemów autonomicznych. Biorę teraz udział w pracach komitetu prawnego IEEE, Instytutu Inżynierów Elektryków i Elektroników – amerykańskiej organizacji zrzeszającej inżynierów i naukowców opracowujących standardy sprzętowe. Od kilku lat IEEE pracuje nad projektem Ethically Aligned Design – dokumentem wytyczającym standardy dla systemów autonomicznych (obecnie nad jego drugą, praktyczną częścią). Wytyczne IEEE w zakresie zasad etycznych dla SI są przy tym bardzo zbliżone do tych, jakie wypracowała grupa ekspertów HLEG w Unii Europejskiej

Z drugiej strony Europa jest dość konserwatywna w myśleniu o sztucznej inteligencji, traktujemy ją tu bardziej jako narzędzie. Naukowcy pracujący w USA, tacy jak przywoływani już wcześniej Max Tegmark, Nick Bostrom czy Stuart Russell, mają odwagę myśleć wizjonersko, sięgać daleko w przyszłość. To bardzo inspirujące. Nie jesteśmy w stanie przewidzieć przyszłości, więc nie warto przywiązywać się do jednego scenariusza. Ale takie dyskusje otwierają umysły i pokazują nowe horyzonty.


*Gabriela Barpartner zarządzający w Szostek_Bar i Partnerzy Kancelarii Prawnej, radca prawny, doktor nauk prawnych. Ekspertka od prawa cywilnego, ze szczególnym uwzględnieniem prawa nowych technologii, prawa własności intelektualnej oraz prawa spółek. Członek komitetu prawnego IEEE, członek Women in AI oraz AI4EU, a także polskiego Stowarzyszenia Prawa Nowych Technologii, współpracownik naukowy Centrum Problemów Techniki i Nowych Technologii przy Wydziale Prawa i Administracji Uniwersytetu Opolskiego, laureatka CorporateLiveWire Global Awards – zdobywca tytułów: GDPR Advisor of the Year 2018 oraz Technology Lawyer of the Year 2018 & 2019.

Gabriela Bar jest jedną z autorek monografii pt. „Prawo sztucznej inteligencji” pod red. Luigiego Lai z OPI PIB oraz dr. hab. Marka Świerczyńskiego z UKSW, która właśnie ukazała się nakładem Wydawnictwa C. H. Beck. Książka poświęcona jest prawnym aspektom sztucznej inteligencji w różnych dziedzinach życia i odpowiada na postulaty i propozycje sformułowane w opublikowanej w lutym przez Komisję Europejską „Białej księdze sztucznej inteligencji”.

Read the English version of this text HERE