Sprowadzanie sztucznej inteligencji wyłącznie do kwestii technicznych to poważny błąd. Jest ona bowiem wyzwaniem cywilizacyjnym i dotyczy nie tylko inżynierów, ale nas wszystkich. Wszyscy też jesteśmy za nią odpowiedzialni, choć w różnym zakresie i stopniu
Sztuczna inteligencja to tzw. technologia ogólnego zastosowania (general purpose technology). Tym samym ma (lub niebawem mieć będzie) wpływ na niemal każdy obszar rzeczywistości. Dziś już coraz częściej zdajemy sobie sprawę z siły jej oddziaływania. Stąd też paląca potrzeba uporządkowania zasad, wedle których jest ona projektowana i wykorzystywana w społeczeństwie.
Przejawem tej tendencji jest rosnąca popularność inicjatyw dotyczących tzw. etycznej SI. To jednak rozwiązania cząstkowe, które nie odpowiadają na wszystkie potrzeby. Jako technologia wywołująca zmianę cywilizacyjną SI wymaga całościowego ujęcia.
Takiego zadania podjęła się prof. Virginia Dignum – informatyczka z Uniwersytetu w Umeå specjalizująca się w analizie systemów heterogenicznych. Jej opublikowana w ubiegłym roku książka „Responsible Artificial Intelligence. How to Develop and Use AI in a Responsible Way” to ważny głos w dyskusji nad kierunkami i modelami rozwoju sztucznej inteligencji.
Imperatyw partycypacji
Utożsamianie SI tylko z technologią to błąd, który może nas drogo kosztować – uważa Dignum. Konsekwencją takiego myślenia jest bowiem zrzeczenie się odpowiedzialności za funkcjonowanie SI na rzecz inżynierów. Sztuczna inteligencja to jednak zbyt poważna sprawa, by zostawiać ją w rękach technokratów. Ta technologia dotyczy nas wszystkich i mamy obowiązek aktywnie włączyć się w debatę na temat jej roli w świecie.
Co szczególnie istotne dla Dignum, sztuczna inteligencja nie posiada autonomii w ścisłym rozumieniu tego słowa i zawsze pozostaje dziełem człowieka. Jest bowiem systemem projektowanym, budowanym i wykorzystywanym przez ludzi. Dlatego odpowiedzialność za SI możemy ponosić tylko my sami, przy czym każdy z nas w innym zakresie. Co innego znaczy to bowiem w przypadku inżynierów, zaś co innego w przypadku przedstawicieli biznesu, polityków czy wreszcie zwykłych obywateli. Nikt jednak nie może czuć się zwolniony z odpowiedzialności.
Dignum formułuje w ten sposób swoisty imperatyw partycypacji: nasze zobowiązanie do zaangażowania wynika po prostu z tego, że jako członkowie społeczeństwa nie możemy być obojętni na kwestie mające zasadniczy wpływ na kształt świata.
Wymiary odpowiedzialności
Etyczna, bądź przyjazna człowiekowi SI to dziś popularny temat. Głośno o niej zarówno wśród decydentów na szczeblu rządowym, jak i korporacyjnym. Jednak zdaniem Dignum etyczność to pojęcie zbyt wąskie, by trafnie oddawało zakres oddziaływania SI. Znacznie lepiej nadaje się do tego odpowiedzialność. Dlaczego?
Powodem jest szerszy kontekst, do którego odnosi się odpowiedzialność. Chodzi bowiem nie tylko o zasady i wartości, jak ma to miejsce w przypadku etyki, ale również o prawo, gospodarkę, kulturę i społeczeństwo. Takie ujęcie, choć komplikuje obraz rzeczywistości, wymusza przyjęcie metody, która pozwoliłaby skutecznie radzić sobie ze złożonością sytuacji.
By móc przypisać odpowiedzialność za działanie systemów SI właściwym podmiotom – przekonuje Dignum – musimy być w stanie kontrolować tzw. łańcuchy odpowiedzialności. Na SI nie składają się bowiem wyłącznie algorytmy, ale również dane, sposoby wykorzystania technologii, metody jej testowania czy sposoby ewaluacji rozwiązań. W takim gąszczu zależności łatwo stracić orientację, kto właściwie odpowiada za działanie danego systemu.
Dlatego istotne jest, by w każdej sytuacji odpowiedzialność za funkcjonowanie SI mogła być trafnie przypisana w zależności od aspektu, o którym jest mowa. Jak jednak podkreśla Dignum, zawsze pozostaje ona rzeczą ludzką.
Najogólniej rzecz ujmując, o odpowiedzialnej SI można myśleć na trzech poziomach:
- Metodologii projektowania systemów SI – Dignum prezentuje tzw. zasadę ART odnoszącą się do kryteriów wyjaśnialności (Accountability), odpowiedzialności (Responsibility) i przejrzystości (Transparency).
- Wewnętrznej etyki systemów SI – autorka poddaje szczegółowej analizie koncepcję budowy sztucznych moralnych podmiotów (artificial moral agents).
- Społecznego ekosystemu złożonego z różnych mechanizmów ułatwiających realizowanie odpowiedzialnej SI.
Nowa narracja
Wyodrębnienie tego ostatniego obszaru wydaje się kluczowe dla całej koncepcji zaproponowanej przez Dignum. Dopiero w tym kontekście zrozumiałe staje się, czym ma być odpowiedzialna SI i dlaczego wszyscy mamy być zaangażowani w ten projekt.
Narzędzia umożliwiające odpowiedzialną SI to bowiem nie tylko metodologie projektowania czy testowania systemów zgodnie z wskazówkami etycznymi, ale także regulacje na szczeblu rządowym czy międzynarodowym, branżowe kodeksy postępowania czy programy nauczania. To również – co szczególnie podkreśla autorka – nowy i odpowiedzialny sposób mówienia o SI.
Społeczeństwo w przeważającej części składa się z niespecjalistów. Aby właściwie rozumiało zagadnienia związane z SI, musi mieć dostęp do rzetelnej wiedzy. Niestety, dziś świadomość większości z nas kształtują w tym zakresie dystopijne obrazki z filmów science fiction. Ważną rolę do odegrania mają tu więc zarówno dziennikarze, jak i organizacja pożytku publicznego, a także szkoły i inne instytucje edukacyjne.
Co warte podkreślenia, konieczność uczenia się nie ogranicza się do zwykłego Kowalskiego. Dużo do nadrobienia mają przede wszystkim decydenci, od których wiedzy zależy przyszły kształt prawa regulującego tę najważniejszą technologię współczesności.
W ujęciu Dignum rewolucja SI wymusza zmianę w myśleniu. To zadanie dla państw, społeczeństw, biznesu i obywateli. Nie możemy go zlekceważyć. Od tego, jak sobie z nim poradzimy, zależy nasza przyszłość.
Virgina Dignum, „Responsible Artificial Intelligence. How to Develop and Use AI in a Responsible Way”, Springer Nature Switzerland AG 2019.