Co w sytuacji, gdy robot nie przyzna kredytu? Klient musi mieć prawo do wiedzy, dlaczego decyzja jest odmowna
Na rynku finansowym konieczne są transparentne rozwiązania w wykorzystaniu sztucznej inteligencji. W tym celu brytyjski nadzór finansowy (FCA) nawiązał współpracę z Instytutem Alana Turinga, który zajmuje się data science i sztuczną inteligencją.
Ojciec SI na banknocie
W Wielkiej Brytanii nazwisko ojca sztucznej inteligencji Alana Turinga niedawno odmieniane było przez wszystkie przypadki. A to za sprawą ogłoszenia przez angielski bank centralny planu emisji nowego banknotu o nominale 50 funtów. Od 2021 roku ma się na nim pojawić wizerunek Alana Turinga, wybitnego brytyjskiego matematyka i jednego z twórców informatyki.
Turing to też dla wielu bohater wojenny. Jako znakomity kryptolog przyczynił się do złamania kodu niemieckiej maszyny szyfrującej Enigma. Imię tragicznie zmarłego geniusza (popełnił samobójstwo) nosi też założony w 2015 roku Alan Turing Institute, brytyjski instytut zajmujący się data science i sztuczną inteligencją.
Transparentność ponad wszystko
FCA nadzoruje ponad 50 tysięcy firm finansowych, a ponad 100 z nich wykorzystuje sztuczną inteligencję między innymi do oceny kredytowej klientów.
– W ramach współpracy z Instytutem Turinga specjaliści mają przeanalizować kwestie etyczne i prawne ze szczególnym naciskiem na przejrzystość i wyjaśnialność sztucznej inteligencji stosowanej w finansach – zapowiedział dyrektor ds. strategii i konkurencji FCA Christopher Woolard podczas konferencji pt. „Etyka SI w sektorze finansowym”.
Zdaniem Woolarda na rynku jest coraz większa zgoda co do tego, że podejmowanie decyzji przez firmę na podstawie danych analizowanych przez algorytm musi być „możliwe do wyjaśnienia”.
– Jeśli konsumentowi odmawia się kredytu hipotecznego lub polisy ubezpieczeniowej na życie, musimy być w stanie wskazać przyczyny. Pozostaje tylko pytanie, jaki ma być poziom tej wyjaśnialności sztucznej inteligencji. Inaczej rozumie to prezes firmy, a inaczej konsument – zauważa Woolard.
Etyka wykorzystania sztucznej inteligencji w finansach nie może też zniżyć się do poziomu tej z marketingu i sprzedaży. Zdaniem Woolarda tam bowiem mamy do czynienia z sytuacjami, kiedy to firma prosi o potwierdzenie zapoznania się z 40 stronami pisanymi „drobnym maczkiem”, aby uzyskać zgodę na przetwarzanie danych. W przypadku usług finansowych nie może być o tym mowy.
Etyka niejedno ma imię
W Polsce Komisja Nadzoru Finansowego nie stworzyła jeszcze wytycznych dotyczących oceny kredytowej z wykorzystaniem sztucznej inteligencji. Co nie znaczy, że nie widzi, jak sztuczna inteligencja zmienia rynek finansowy.
Powstały m.in. wytyczne dotyczące zarządzania technologiami informacyjnymi i bezpieczeństwa teleinformatycznego w zakładach ubezpieczeń i reasekuracji. Jest też stanowisko w sprawie doradztwa firm inwestycyjnych, w tym robodoradztwa. Ponadto KNF posiłkuje się wytycznymi Komisji Europejskiej w sprawie etyki SI, o czym więcej można przeczytać na stronie Komisji. Dokument zawiera siedem zasad niezbędnych do uzyskania SI godnej zaufania.
Siedem unijnych zasad etyki SI:
- Przewodnia i nadzorcza rola człowieka – systemy SI powinny wspierać rozwój sprawiedliwego społeczeństwa poprzez wzmacnianie przewodniej roli człowieka i praw podstawowych, a nie zmniejszać, ograniczać czy wypaczać ludzką autonomię;
- Stabilność i bezpieczeństwo – algorytmy stosowane w ramach wiarygodnej sztucznej inteligencji muszą być bezpieczne, niezawodne i wystarczająco solidne, by poradzić sobie z błędami lub niespójnościami na wszystkich etapach cyklu życia systemu SI;
- Ochrona prywatności i danych – obywatele powinni mieć pełną kontrolę nad własnymi danymi, zaś dane ich dotyczące nie będą wykorzystywane do szkodzenia im ani dyskryminowania;
- Przejrzystość – należy zapewnić identyfikowalność systemów SI;
- Różnorodność, niedyskryminacja i sprawiedliwość – systemy SI powinny uwzględniać cały zakres ludzkich zdolności, umiejętności i wymogów oraz zapewniać dostępność;
- Dobrostan społeczny i środowiskowy – systemy sztucznej inteligencji powinny wzmacniać pozytywne zmiany społeczne, wspierać zrównoważony rozwój i odpowiedzialność ekologiczną;
- Odpowiedzialność – zdaniem KE należy wprowadzić mechanizmy zapewniające odpowiedzialność za systemy SI oraz ich wyniki.
Zalecenia Komisji Europejskiej odnoszą się do wszystkich aspektów działania sztucznej inteligencji.
Polska bankowość w gotowości
W KNF zagadnieniami sztucznej inteligencji zajmuje się departament ds. fintech. Stojąca na jego czele Magdalena Borowik podczas Europejskiego Kongresu Finansowego w Sopocie wskazywała niedawno, że sztuczna inteligencja nie zawsze daje 100 proc. odpowiedzi na każde pytanie.
KNF będzie przyglądała się poczynaniom banków i firm finansowych w tym obszarze. – Należy pamiętać, że w dyskusji o SI na końcu zawsze potrzebny jest człowiek. Wykorzystanie sztucznej inteligencji, jak najbardziej, ale w sytuacjach krytycznych nie chciałabym, aby komputer podejmował decyzję za mnie – stwierdziła w czerwcu 2019 roku Borowik.
Ponadto w polskim prawie bankowym istnieje artykuł 105a. Mówi on o tym, że banki i instytucje upoważnione do udzielania kredytów i pożyczek w celu oceny zdolności kredytowej mogą automatycznie profilować swoich klientów, pod warunkiem że będą oni mieli prawo do uzyskania wyjaśnień co do podstaw decyzji banku.