Co w sytuacji, gdy robot nie przyzna kredytu? Klient musi mieć prawo do wiedzy, dlaczego decyzja jest odmowna

Na rynku finansowym konieczne są transparentne rozwiązania w wykorzystaniu sztucznej inteligencji. W tym celu brytyjski nadzór finansowy (FCA) nawiązał współpracę z Instytutem Alana Turinga, który zajmuje się data science i sztuczną inteligencją.

Ojciec SI na banknocie

W Wielkiej Brytanii nazwisko ojca sztucznej inteligencji Alana Turinga niedawno odmieniane było przez wszystkie przypadki. A to za sprawą ogłoszenia przez angielski bank centralny planu emisji nowego banknotu o nominale 50 funtów. Od 2021 roku ma się na nim pojawić wizerunek Alana Turinga, wybitnego brytyjskiego matematyka i jednego z twórców informatyki.

Turing to też dla wielu bohater wojenny. Jako znakomity kryptolog przyczynił się do złamania kodu niemieckiej maszyny szyfrującej Enigma. Imię tragicznie zmarłego geniusza (popełnił samobójstwo) nosi też założony w 2015 roku Alan Turing Institute, brytyjski instytut zajmujący się data science i sztuczną inteligencją.

Transparentność ponad wszystko

FCA nadzoruje ponad 50 tysięcy firm finansowych, a ponad 100 z nich wykorzystuje sztuczną inteligencję między innymi do oceny kredytowej klientów.

– W ramach współpracy z Instytutem Turinga specjaliści mają przeanalizować kwestie etyczne i prawne ze szczególnym naciskiem na przejrzystość i wyjaśnialność sztucznej inteligencji stosowanej w finansach – zapowiedział dyrektor ds. strategii i konkurencji FCA Christopher Woolard podczas konferencji pt. „Etyka SI w sektorze finansowym”.

Zdaniem Woolarda na rynku jest coraz większa zgoda co do tego, że podejmowanie decyzji przez firmę na podstawie danych analizowanych przez algorytm musi być „możliwe do wyjaśnienia”.

– Jeśli konsumentowi odmawia się kredytu hipotecznego lub polisy ubezpieczeniowej na życie, musimy być w stanie wskazać przyczyny. Pozostaje tylko pytanie, jaki ma być poziom tej wyjaśnialności sztucznej inteligencji. Inaczej rozumie to prezes firmy, a inaczej konsument – zauważa Woolard.

Etyka wykorzystania sztucznej inteligencji w finansach nie może też zniżyć się do poziomu tej z marketingu i sprzedaży. Zdaniem Woolarda tam bowiem mamy do czynienia z sytuacjami, kiedy to firma prosi o potwierdzenie zapoznania się z 40 stronami pisanymi „drobnym maczkiem”, aby uzyskać zgodę na przetwarzanie danych. W przypadku usług finansowych nie może być o tym mowy.

Etyka niejedno ma imię

W Polsce Komisja Nadzoru Finansowego nie stworzyła jeszcze wytycznych dotyczących oceny kredytowej z wykorzystaniem sztucznej inteligencji. Co nie znaczy, że nie widzi, jak sztuczna inteligencja zmienia rynek finansowy.

Powstały m.in. wytyczne dotyczące zarządzania technologiami informacyjnymi i bezpieczeństwa teleinformatycznego w zakładach ubezpieczeń i reasekuracji. Jest też stanowisko w sprawie doradztwa firm inwestycyjnych, w tym robodoradztwa. Ponadto KNF posiłkuje się wytycznymi Komisji Europejskiej w sprawie etyki SI, o czym więcej można przeczytać na stronie Komisji. Dokument zawiera siedem zasad niezbędnych do uzyskania SI godnej zaufania.

Siedem unijnych zasad etyki SI:

  • Przewodnia i nadzorcza rola człowieka – systemy SI powinny wspierać rozwój sprawiedliwego społeczeństwa poprzez wzmacnianie przewodniej roli człowieka i praw podstawowych, a nie zmniejszać, ograniczać czy wypaczać ludzką autonomię;
  • Stabilność i bezpieczeństwo – algorytmy stosowane w ramach wiarygodnej sztucznej inteligencji muszą być bezpieczne, niezawodne i wystarczająco solidne, by poradzić sobie z błędami lub niespójnościami na wszystkich etapach cyklu życia systemu SI;
  • Ochrona prywatności i danych – obywatele powinni mieć pełną kontrolę nad własnymi danymi, zaś dane ich dotyczące nie będą wykorzystywane do szkodzenia im ani dyskryminowania;
  • Przejrzystość – należy zapewnić identyfikowalność systemów SI;
  • Różnorodność, niedyskryminacja i sprawiedliwość – systemy SI powinny uwzględniać cały zakres ludzkich zdolności, umiejętności i wymogów oraz zapewniać dostępność;
  • Dobrostan społeczny i środowiskowy – systemy sztucznej inteligencji powinny wzmacniać pozytywne zmiany społeczne, wspierać zrównoważony rozwój i odpowiedzialność ekologiczną;
  • Odpowiedzialność – zdaniem KE należy wprowadzić mechanizmy zapewniające odpowiedzialność za systemy SI oraz ich wyniki.

Zalecenia Komisji Europejskiej odnoszą się do wszystkich aspektów działania sztucznej inteligencji.

Polska bankowość w gotowości

W KNF zagadnieniami sztucznej inteligencji zajmuje się departament ds. fintech. Stojąca na jego czele Magdalena Borowik podczas Europejskiego Kongresu Finansowego w Sopocie wskazywała niedawno, że sztuczna inteligencja nie zawsze daje 100 proc. odpowiedzi na każde pytanie.

KNF będzie przyglądała się poczynaniom banków i firm finansowych w tym obszarze. – Należy pamiętać, że w dyskusji o SI na końcu zawsze potrzebny jest człowiek. Wykorzystanie sztucznej inteligencji, jak najbardziej, ale w sytuacjach krytycznych nie chciałabym, aby komputer podejmował decyzję za mnie – stwierdziła w czerwcu 2019 roku Borowik.

Ponadto w polskim prawie bankowym istnieje artykuł 105a. Mówi on o tym, że banki i instytucje upoważnione do udzielania kredytów i pożyczek w celu oceny zdolności kredytowej mogą automatycznie profilować swoich klientów, pod warunkiem że będą oni mieli prawo do uzyskania wyjaśnień co do podstaw decyzji banku.