Polska ma szansę na technologiczny „żabi skok”. Wystarczy zamiast na sztucznej inteligencji skupić się na zautomatyzowanym podejmowaniu decyzji – to wniosek płynący z raportu „AlgoPolska” przygotowanego przez Klub Jagielloński i Centrum Cyfrowe

Modny i nośny termin „sztuczna inteligencja” jest trudny do sprecyzowania i dla różnych ludzi oznacza bardzo różne rzeczy. Dla jednych to mówiący humanoidalny robot Sophie, dla innych – algorytm proponujący nam filmy na Netfliksie, dla jeszcze innych – system inwigilacji obywateli w Chinach.

„Wieloznaczność pojęcia sztuczna inteligencja utrudnia debatę regulacyjną. Jest barierą dla zrozumienia roli tej nowej technologii i jej wpływu na społeczeństwo oraz dla konstruowania polityki publicznej odpowiednio kształtującej jej rozwój” – czytamy w raporcie.

Dlatego, zamiast mówić o sztucznej inteligencji, która – jakkolwiek by ją rozumieć – jest przede wszystkim technologią, należy rozmawiać o zautomatyzowanym podejmowaniu decyzji (ADM – automated decision making). To pojęcie szersze, określające systemy, które korzystając z jakiejś formy technologii, automatyzują pewne procesy.

Wydawałoby się, że różnica jest niewielka, jednak w przypadku ADM to nie sama technologia jest istotna, ale cel, rezultat, a także korzyści i ewentualne efekty uboczne jej wprowadzenia. W systemach ADM nie jest ważne, co kryje się „pod maską” – potężna sieć neuronowa czy prosty algorytm bazujący na kilku oczywistych założeniach – bo to efekt działania systemu jest istotny.

Kluczowym, choć często bagatelizowanym warunkiem zrównoważonego rozwoju systemów zautomatyzowanego podejmowania decyzji jest edukacja

„Chcemy przesunąć ciężar debaty z dyskusji o technologicznym narzędziu, jakim jest sztuczna inteligencja, do analizy społecznych skutków delegacji decyzyjności na algorytmy. (…) Debata o ADM przesuwa nacisk z kwestii rozwoju technologii i gospodarki na kwestię społecznego nadzoru nad tym rozwojem” – czytamy w raporcie.

Systemów ADM możemy użyć wszędzie tam, gdzie mamy wystarczająco dużo danych do podjęcia stosownej decyzji. Edukacja, sądownictwo, finanse, opieka medyczna, opieka społeczna, prewencja przestępstw – to dziedziny, które w wielu krajach już teraz korzystają przynajmniej częściowo z automatyzacji procesów decyzyjnych.

Żabi skok

Jak na tym tle wypada Polska? Jak czytamy w raporcie – jesteśmy w tyle. W naszym kraju powstaje relatywnie niewiele systemów ADM. Mamy też małe szanse, by stać się liderem rozwoju sztucznej inteligencji pomimo naszych ambicji i dużego potencjału polskich start-upów SI.

Zamiast tego powinniśmy przyjąć inną strategię. Powinniśmy potraktować nasze zapóźnienie technologiczne jako szansę i wykonać „technologiczny żabi skok” – przeprowadzić radykalną zmianę społeczną dzięki nowym wdrożeniom. Przykładem takiej przemiany jest Estonia, która w latach 90. XX wieku przeobraziła się w społeczeństwo cyfrowe mimo znacznego opóźnienia w tej dziedzinie.

„Naszą ambicją powinna być wiodąca rola w wyznaczaniu standardów zrównoważonego rozwoju systemów ADM” – głosi raport.

Uczmy się od innych

Technologiczny żabi skok jest możliwy dzięki temu, że inne kraje od lat wdrażają zautomatyzowane systemy decyzyjne. Raport podaje kilkadziesiąt przykładów z całego świata i z wielu dziedzin. Łatwo zauważyć, że bardzo wiele z tych wdrożeń zakończyło się niepowodzeniem albo tylko częściowym sukcesem. Testowany przez Amazon algorytmiczny system oceny CV okazał się seksistą, algorytm oceniający dzielnice Stuttgartu pod względem bezpieczeństwa nie pomógł zmniejszyć liczby przestępstw, system zarządzania grafikiem nauczycieli akademickich we Włoszech przydzielał wykładowców do przypadkowych uczelni – przykłady można mnożyć.

Jak podkreślają autorzy raportu, to nie jest powód, by rezygnować z wdrożeń – trzeba się uczyć na błędach innych, wyciągać wnioski i wprowadzać rozwiązania w oparciu o te doświadczenia, a przede wszystkich odpowiedzialnie.

„W tym celu powinniśmy skupić się nie tylko na rozwoju wąskiego sektora AI w ramach branży informatycznej, ale szerszego systemu społeczno-technologicznego skupionego wokół tych nowych technologii i działającego w sposób zrównoważony. Powinniśmy też zapewnić, że innowacje technologiczne i rozwój gospodarczy będą szły w parze z troską o rozwój społeczny, dobrobyt mieszkańców i redukowanie potencjalnych szkód społecznych związanych z wdrażaniem nowych technologii” – czytamy w raporcie.

Systemy na nasze potrzeby

Warunkiem zrównoważonego rozwoju ADM jest stworzenie strategii popytowej. Co to oznacza? Dotychczas – jak czytamy w raporcie – polskie strategie skupiały się na pracach badawczo-rozwojowych i wykorzystaniu gospodarczym systemów ADM. Prowadzi to do sytuacji, w której Polska jest krajem, który dostarcza rozwiązań dla innych krajów na całym świecie. Już teraz nasze firmy z sektora SI pracują głównie dla podmiotów zagranicznych.

Strategia popytowa polega na wytworzeniu wewnętrznego popytu na systemy ADM. Jej celem powinno być „zadbanie o to, byśmy jako społeczeństwo umieli wykorzystywać technologię świadomie i dbać dzięki niej o realizację własnych potrzeb”.

Poczwórna helisa

Do realizacji strategii popytowej konieczna jest współpraca czterech stron: nauki, biznesu, administracji publicznej i strony społecznej. Autorzy raportu nazywają to „poczwórną helisą”.

„Współpraca w modelu poczwórnej helisy oznacza współpracę wszystkich sektorów przy wdrażaniu i kształtowaniu systemów ADM. Uczestnictwo strony społecznej – której nie uwzględniają tradycyjne modele innowacji międzysektorowej – jest niezbędne, jeśli chcemy tworzyć polityki mające na celu nie tylko rozwój gospodarczy czy optymalizację działań administracji publicznej, lecz także dobrostan społeczny i prawa jednostek”.

Potrzebne regulacje

Ponieważ systemy ADM będą miały wpływ na życie obywateli i całe społeczeństwo, niezbędna jest regulacja. Kwestią jest tylko to, w jakim stopniu i według jakiego modelu ta regulacja ma działać. Autorzy raportu proponują, by regulacje wprowadzać właśnie tam, gdzie systemy ADM mają wpływ na jednostkę czy interes społeczny.

„W przypadku wywierania takiego wpływu niezbędna jest regulacja zapewniająca mechanizmy odwoławcze, a także kontrolę ze strony państwa (przy założeniu, że w społeczeństwie demokratycznym zadaniem państwa jest ochrona praw podstawowych)” – czytamy.

Regulacje można wprowadzić przepisami prawa. Należy to zrobić wszędzie tam, gdzie istnieje ryzyko naruszenia praw podstawowych obywateli. Ale w przypadku nowych technologii może być konieczne poszukiwanie nowych modeli regulacyjnych.

Można na przykład wymagać od twórców ADM stworzenia systemów weryfikacji ich algorytmów, trochę tak, jak RODO nakłada na firmy obowiązek stworzenia systemu bezpiecznego przetwarzania danych. Taki system musiałby być okresowo kontrolowany, bo rezultaty działania ADM mogą być opóźnione w czasie.

Jak czytamy w raporcie, „kluczowe będzie zapewnienie transparentności, wyjaśnialności, a także możliwości odwołania od decyzji podjętej przez system ADM”.

Wyjaśnienie, audyt, odwołanie

Pora przestać myśleć o ADM jako o „czarnych skrzynkach” – to kolejny ważny postulat raportu: „Metafora czarnej skrzynki sprawia, że godzimy się, by kluczowe systemy wpływające na społeczeństwo działały w sposób nieprzejrzysty, a przez to niepodlegający kontroli społecznej”. To niedopuszczalne założenie. Należy wymagać od twórców i podmiotów wdrażających systemy ADM, by wyczerpująco wyjaśniały sposób ich działania.

Systemy ADM powinny być przejrzyste, a audyty i analizy ich działania dokonywane przez podmioty je wdrażające powinny się znajdować w domenie publicznej, aby każdy mógł poznać i skontrolować ich działanie. Powinna być też możliwość oceny skutków działania systemów ADM.

Wreszcie prawo powinno gwarantować mechanizmy odwoławcze i naprawy szkód – powinna być możliwość odwołania się od każdej decyzji podjętej przez ADM, weryfikacji jej słuszności, a także naprawy ewentualnych szkód wynikłych z błędnej decyzji systemu (np. nieprzyznaniu kredytu, nietrafionej diagnozie medycznej czy… omyłkowym aresztowaniu).

Przede wszystkim edukacja

Kluczowym, choć często bagatelizowanym warunkiem zrównoważonego rozwoju systemów ADM jest edukacja. Chodzi o to, by obywatele zrozumieli szanse, wyzwania i sposób działania systemów zautomatyzowanego podejmowania decyzji. Od tego zależy, czy Polsce uda się wytworzyć wewnętrzny popyt na rozwiązania ADM.

Trzeba edukować na wielu poziomach – podnosić poziom podstawowych umiejętności cyfrowych obywateli, zwiększać rozumienie tematu systemów ADM wśród kadry zarządzającej średniego i wysokiego szczebla, uwrażliwiać twórców systemów ADM na stronę etyczną i społeczną tworzonych przez nich rozwiązań.

„Ostateczną kluczową grupą są liderzy zmiany technologicznej – to przede wszystkim przedsiębiorcy i innowatorzy tworzący rozwiązania ADM. To od ich wiedzy i świadomości zależy, jakie rozwiązania będą wdrażane, na przykład w polskim sektorze publicznym. Polscy programiści i polskie start-upy tworzą niewątpliwie historię sukcesu rozwoju polskiej gospodarki. Mamy nadzieję, że będą firmami, które chcą działać w sposób etyczny i świadomy społecznie, mając na uwadze więcej niż tylko zysk ekonomiczny i konkurencyjność na rynku” – podsumowują autorzy raportu.