Demokratyzacja sztucznej inteligencji nie może się ograniczać do samego rynku. Niezbędny jest większy udział społeczeństwa w tworzeniu i przyswajaniu tej technologii
Dostęp do sztucznej inteligencji był do niedawna ograniczony do laboratoriów badawczych i garstki najzamożniejszych przedsiębiorców. Dziś coraz śmielej sięgają po nią mniejsze firmy i start-upy. Rozpowszechnianie technologii SI jest możliwe dzięki kilku czynnikom: chmurze obliczeniowej, która umożliwia elastyczny dostęp do zasobów komputerowych bez konieczności inwestowania we własną infrastrukturę, sprawdzonych narzędzi do budowy modeli SI oraz dostępności algorytmów i zbiorów danych pozwalających szybko rozpocząć prace nad produktami czy usługami.
Z myślą o społeczeństwie
Pożytków płynących z rynkowej demokratyzacji SI jest wiele. To przede wszystkim wzrost innowacyjności i rozwój gospodarki, ale też realne korzyści dla społeczeństwa: poprawa jakości życia, lepsza diagnostyka medyczna czy możliwość trafniejszego przewidywania zmian klimatycznych.
Niestety, wraz z jej rozwojem pojawia się również wiele zagrożeń, które mogą przesłonić uzyskane korzyści. Chodzi o efekty uboczne działania technologii, jak na przykład nieumyślna dyskryminacja (np. w dostępie do pomocy dla bezrobotnych) czy tzw. technologiczne bezrobocie (i coraz częściej zadawane pytanie: czy roboty zabiorą nam pracę?). Inny problem to galopujący wzrost nierówności, który w zawrotnym tempie powiększa przepaść pomiędzy garstką beneficjentów a całą resztą.
Jak temu przeciwdziałać? Trzeba zmienić sposób myślenia o technologii. Demokratyzacja SI w wymiarze rynkowym, czyli jej szersza dostępność, musi zostać uzupełniona o demokratyzację społeczną. To znaczy, że musimy włączyć ludzi spoza sektora IT w projektowanie, budowę i wykorzystywanie narzędzi sztucznej inteligencji.
Utopijne teoretyzowanie? Niekoniecznie. Świetną ilustracją tej zmiany jest propozycja rozwoju wyjaśnialnej SI (explainable AI) w kierunku większej partycypacji społecznej i różnorodności zaproponowana przez dwie amerykańskie badaczki.
Dziś jesteśmy często skłonni wierzyć w niezależność autonomicznych systemów. Takie myślenie jest na rękę tym, którzy chcą sprzedać jak najwięcej produktów opartych na technologii SI, a zarazem nie ponosić odpowiedzialności za jej ewentualne szkody
Człowiek w centrum maszyny
Jennifer Wortman Vaughan i Hanna Wallach z Microsoft Research w Nowym Jorku (MSR NYC) przekonują, że – wbrew rozpowszechnionym stereotypom – w centrum SI na każdym etapie jej rozwoju i działania znajduje się człowiek. Nie chodzi tu oczywiście o jakąś współczesną odmianę Mechanicznego Turka, czyli XVIII-wiecznej „maszyny” do gry w szachy, w której wnętrzu zamiast genialnego mechanizmu siedział ukryty człowiek. Ich stwierdzenie odnosi się do ludzkich intencji, sposobów działania oraz ich efektów. Każdy system SI został przecież przez kogoś w jakimś celu stworzony, ktoś z niego korzysta, a jeszcze inna osoba jest obiektem jego działania. To zatem człowiek określa cele działania SI, jest za nią odpowiedzialny, a także ponosi pozytywne bądź negatywne konsekwencje jej funkcjonowania.
Tymczasem dziś jesteśmy często skłonni wierzyć w niezależność autonomicznych systemów. Wynika to z błędnego utożsamienia „inteligencji” maszyn z ich samodzielnością. Takie myślenie jest na rękę tym, którzy chcą sprzedać jak najwięcej produktów opartych na tej technologii, a zarazem nie ponosić odpowiedzialności za jej ewentualne szkody. Taktyka umywania rąk jest jednak nie do obrony. Tam, gdzie system SI wydaje się nieprzejrzysty, należy stosować narzędzia umożliwiające jego wyjaśnienie, tłumaczą badaczki. I pokazują, jak sprawić, by wyjaśnialna SI była naprawdę przydatna społeczeństwu.
Wyjaśnialna SI to droga ku lepszemu rozumieniu działań SI, która często – szczególnie w przypadku głębokiego uczenia – bywa nieprzenikniona dla użytkowników. Logika działania systemu jest przed nami ukryta: znamy punkt wyjścia i rezultat, jednak nie rozumiemy, w jaki sposób maszyna do niego doszła. Wgląd w mechanizmy działania takiej SI umożliwiają właśnie rozwiązania opracowywane przez specjalistów od explainable AI.
Poznaj moje potrzeby
Jak jednak przekonują Vaughan i Wallach, wyjaśnialność nie sprowadza się tylko do skutecznych metod prześwietlania SI. Jedno uniwersalne narzędzie nie wystarczy. Trzeba jeszcze uwzględniać potrzeby różnych interesariuszy: programistów, użytkowników czy klientów. Każda z tych grup ma nie tylko inne umiejętności, ale też różne potrzeby. Jeśli dodać do tego zróżnicowanie obszarów, w których SI może być wykorzystywana, widać, że myślenie o różnych oczekiwaniach odbiorców SI jest priorytetowe.
Posiłkując się porównaniem z dziedziny motoryzacji, można powiedzieć, że godna zaufania SI powinna być jak sprawny autonomiczny pojazd, który nie zawodzi ani pasażera, ani mechanika, ani dealera. Pasażer chce sprawnie i bezpiecznie trafić do celu w jak najkrótszym czasie. Choć musi mieć pewność, że tak właśnie się stanie, nie potrzebuje rozumieć, jak działa system, który to umożliwia. Z kolei mechanik musi wiedzieć, czy samochód jest sprawny, czy nie, a jeśli wykryje usterkę – na czym dokładnie polega i jak ją naprawić. Wreszcie dealer chce mieć pewność, że samochód działa poprawnie, tak by klient nie wrócił z reklamacją. W tym celu musi wiedzieć więcej od użytkownika, żeby móc mu wytłumaczyć mechanizmy działania, a zarazem nie potrzebuje rozumieć zawiłości niezbędnych do naprawy pojazdu przez mechanika.
W tym kontekście badaczki rozróżniają podejście strukturalne, w którym kluczowe jest rozumienie działania systemu, oraz funkcjonalne, gdzie najistotniejsza jest umiejętność jego poprawnego używania. W obu przypadkach chodzi ostatecznie o to samo – zaufanie – lecz do podobnego celu dochodzi się odmiennymi drogami.
Inżynierowie to za mało
Aby proponowane przez Vaughan i Wallach podejście mogło zadziałać, konieczne są sprawdzone kryteria zrozumiałości. W tym celu trzeba sięgnąć do dorobku nauk społecznych oraz metod rozwijanych w badaniach interakcji człowiek – komputer. Amerykańskie badaczki nie są w tym odosobnione. Ich podejście jest bliskie postulatom choćby Amy Webb, która uważa, że uczelnie kształcące przyszłych speców od SI powinny dbać o większą różnorodność wśród studentów, a także rozszerzyć program nauczania o etykę i wiedzę o człowieku.
Wprowadzenie zróżnicowanych perspektyw i potrzeb do badań nad wyjaśnialnością to właśnie krok w kierunku społecznej demokratyzacji technologii.
Autorki podkreślają jednak, że explainability nie kończy się na wyjaśnianiu działania modeli SI. Powinna ona obejmować także zbiory danych, wskaźniki efektywności systemu oraz informacje o błędach. W przypadku niektórych interesariuszy czynniki te mogą być bowiem istotniejsze niż sam sposób działania modelu. Na przykład dobrze opisane zbiory danych mogą wielokrotnie posłużyć twórcom różnych modeli SI.
Jak widać, wyzwania związane z SI dalece wykraczają poza kompetencje ściśle techniczne, co nie umniejsza znaczenia doskonalenia samych technologii przez inżynierów. Postulat społecznej demokratyzacji zakłada raczej uzupełnienie badań nad SI o nowe perspektywy. To konieczne, by rozwój technologii nie stał się celem samym w sobie, lecz służył wszystkim w sposób maksymalnie korzystny.