Warunkiem stworzenia przyjaznej człowiekowi sztucznej inteligencji jest rozumienie jej działania. Czy to oznacza, że wszyscy musimy ją pojmować dokładnie na tym samym poziomie? Niekoniecznie

Aby móc z przekonaniem używać algorytmów wspierających podejmowanie decyzji, powinniśmy rozumieć, jak działają – twierdzą zwolennicy etycznej sztucznej inteligencji. Transparentność systemów SI ma z jednej strony gwarantować ich sprawiedliwość i brak stronniczości, z drugiej zaś zwiększać społeczną akceptację dla tego typu rozwiązań.

Ta argumentacja budzi jednak wątpliwości części ekspertów zajmujących się wpływem nowych technologii na społeczeństwo. Okazuje się bowiem, że lepszy wgląd w działania algorytmów nie zawsze przekłada się na trafniejsze decyzje ludzi, którzy ich używają.

Wyjaśnienia i złudzenia

Świadczą o tym badania przeprowadzone przez Bena Greena i Yiling Chen z Uniwersytetu Harvarda, którzy postanowili sprawdzić, jak automatyczne systemy wspierania decyzji wpływają na sposób myślenia ich użytkowników. Okazało się, że gdy ludzie dysponowali wyjaśnieniem działania algorytmów, ich decyzje wcale nie były trafniejsze. Skąd taki efekt?

Problem w tym, że użytkownicy różnie interpretują logikę algorytmów. Dlatego odnosząc się do badania Greena i Chen, John Danaher z Uniwersytetu w Galway twierdzi, że transparentność SI wcale nie gwarantuje poprawy jakości używania automatycznych systemów decyzyjnych. Wyjaśnienia mogą bowiem usypiać naszą czujność lub przytłaczać nas nadmiarem informacji. Zdaniem Danahera mamy tu bardziej do czynienia z iluzją rozumienia, która choć poprawia naszą samoocenę i poczucie sprawczości, to de facto nie znajduje przełożenia na trafność osądu.

Opinia Danahera wydaje się jednak zbytnim uogólnieniem. Na jej niekorzyść przemawiają zresztą zastrzeżenia samych autorów badania, którzy podkreślają, że w eksperymencie wzięli udział zwykli ludzie, a nie specjaliści w danej dziedzinie (do badania wykorzystano systemy SI używane do podejmowania decyzji o przyznawaniu kredytu oraz tymczasowym aresztowaniu), co zapewne nie pozostało bez wpływu na jego wyniki.

Rozumieć czy zaufać?

Jeszcze mocniejszym argumentem przeciw tezie Danahera są ustalenia Yishana Zhou z Uniwersytetu Kalifornijskiego w San Diego oraz Davida Danksa z Carnegie Mellon University. Ich zdaniem w przypadku wyjaśnialnej SI należy mówić nie o rozumieniu jako takim, ale o jego o różnych rodzajach, które uwzględniają odmienne cele ludzi mających styczność z SI. W tym kontekście badacze wyodrębniają trzy umowne grupy: inżynierów, użytkowników oraz osoby, w których sprawie SI podejmuje decyzje.

Przed zakupem samochodu większość z nas nie oczekuje od sprzedawcy szczegółowych informacji na temat każdego podzespołu

W przypadku każdej z tych grup zakres i „głębokość” rozumienia są odmienne. Na przykład inżynier musi dokładnie rozumieć techniczną stronę systemu i jego mechanizmy, użytkownikowi wystarczy rozumienie funkcjonalności SI bez wchodzenia w niuanse pracy algorytmów, zaś osoba, co do której SI podejmuje decyzję – ogólne zasady jej działania.

To pragmatyczne podejście dość dobrze oddaje realia funkcjonowania w rzeczywistym świecie. Przed zakupem samochodu większość z nas nie oczekuje przecież od sprzedawcy szczegółowych informacji na temat każdego podzespołu. Wystarcza nam ogólna wiedza o tym, jak prowadzić pojazd i korzystać z jego wyposażenia. Decyzja o wyruszeniu w drogę wymaga więc przede wszystkim zaufania do producenta. Podobnie będzie w przypadku sztucznej inteligencji: nie wszyscy musimy doskonale pojmować każdy jej komponent. Ważne jednak, abyśmy mieli zaufanie – nie tyle do samej SI, co do ludzi, którzy ją zaprojektowali i jej używają.

Praworządna SI

Co jednak zagwarantuje nam, że możemy zaufać specjalistom od SI? Prawo, odpowiada Paul Nemitz, główny doradca Dyrekcji Generalnej Komisji Europejskiej ds. wymiaru sprawiedliwości i konsumentów. Praworządność, prawa człowieka i demokracja to podstawa liberalnego modelu państw zachodnich. Musimy o tym pamiętać także w odniesieniu do SI.

Niestety, dziś łatwo o tym zapomnieć, bo zachęca nas do tego zarówno postawa wielu firm technologicznych, jak i daleki od regulacji prawnych (lawless) rozwój internetu. Jednak to prawo jest gwarantem zaufania. Tak jak w życiu społecznym ufamy ludziom, bo wiemy, że funkcjonujemy w ramach jednego systemu prawnego, tak też w świecie algorytmów musimy mieć takie samo przekonanie.

Etyczna SI to w takim razie przede wszystkim praworządna SI. Dopiero bowiem konkretne regulacje mogą wymusić na ekspertach tworzenie transparentnych systemów, które zagwarantują etyczne działanie SI reszcie społeczeństwa.

Pozostaje pytanie, czy wszystkie systemy SI da się uczynić przejrzystymi nawet dla tworzących je inżynierów. Prof. Cynthia Rudin z Uniwersytetu Duke’a uważa, że jest to mało prawdopodobne. Dlatego jej zdaniem w systemach o wysokim stopniu ryzyka (np. stosowanych w medycynie czy wymiarze sprawiedliwości) powinny być dopuszczalne wyłącznie rozwiązania w pełni interpretowalne. Chodzi o nowej generacji algorytmy drzew decyzyjnych, które – jak dowodzi Rudin – mogą być równie skuteczne, co popularne dziś uczenie głębokie.

Nie powinniśmy się jednak łudzić, że nawet taka interpretowalna SI będzie zrozumiała dla wszystkich. Czy to jednak problem? Nie bardzo. W pełni mają ją bowiem rozumieć przede wszystkim fachowcy, w tym ci odpowiedzialni za certyfikowanie etycznych systemów (pomysły certyfikacji wysuwa dziś m.in. UE i ONZ). Dlatego mówiąc o zrozumiałej SI, myślmy przede wszystkim o mechanizmach prawnych gwarantujących jej sprawiedliwe tworzenie i działanie.