Firmy w Wielkiej Brytanii, które nie potrafią wyjaśnić, dlaczego używany przez nie algorytm podjął taką a nie inną decyzję, będą od przyszłego roku karane grzywną

Brytyjski urząd Information Commissioner’s Office (ICO), zajmujący się szeroko pojętym nadzorem nad danymi, chce wprowadzić prawo, które pozwoliłoby nakładać grzywny na firmy, jeśli nie będą mogły wytłumaczyć podstaw decyzji podjętej przez algorytm. Finansowe kary byłyby dotkliwe, sięgające 4 proc. obrotu, co w przypadku dużych firm oznacza grube miliony funtów. O sprawie napisał ostatnio „New Scientist”.

Urząd twierdzi, że taka regulacja jest istotna, bowiem wiele brytyjskich firm wykorzystuje już algorytmy do podejmowania decyzji wpływających na ludzkie życie. Działy personalne korzystają z nich przy selekcji kandydatów na stanowiska pracy, banki do analizy wniosków kredytowych, a firmy ubezpieczeniowe do weryfikowania zgłoszeń szkód. Jak twierdzi urząd, algorytmy oparte na sztucznej inteligencji wykorzystuje już dwie trzecie brytyjskich firm z sektora finansowego.

Ale sztuczna inteligencja wykorzystywana jest nie tylko przez sektor prywatny. W Wielkiej Brytanii algorytmy oparte na SI będą wkrótce pomagać w administracji: rozpatrywać wnioski o pomoc społeczną czy identyfikować dzieci zagrożone przemocą. Brytyjski rząd chciałby też, aby algorytmy sztucznej inteligencji stały się podstawą diagnostyki medycznej w szpitalach.

Aż połowę badanych mieszkańców Wielkiej Brytanii niepokoją sytuacje, w których algorytm podejmuje decyzję, która dotychczas należała do człowieka (według danych ICO).

Brytyjski urząd ma nadzieję, że jego inicjatywa – wsparta przez Instytut Alana Turinga – skłoni firmy, które kupują rozwiązania informatyczne oparte na SI (raczej niż tworzą własne), do stawiania pytań o to, jak działają algorytmy. Te operujące w sieciach neuronowych są bowiem często nieprzejrzyste, a od ich decyzji nie sposób się odwołać.

Aż połowę badanych mieszkańców Wielkiej Brytanii niepokoją sytuacje, w których algorytm podejmuje decyzję, która dotychczas należała do człowieka

To dlatego, że reguły stosowane przez SI nie są wprowadzane przez programistów, lecz powstają samoistnie w procesie uczenia się sieci neuronowej na podstawie (zwykle setek tysięcy lub milionów) przykładów. Przez to nawet specjalistom niezmiernie trudno jest wyjaśnić działanie takich sieci czy podać podstawy podejmowanych przez nie decyzji. Wiemy, co trafia do środka i widzimy końcowy efekt. Nie wiemy natomiast, w jaki sposób przebiega sam proces wnioskowania. Teoretycy sztucznej inteligencji nazywają to „problemem czarnej skrzynki” (black box problem).

Gwoli ścisłości istnieją sposoby, żeby informacje o sposobie dojścia do danego rozwiązania z sieci neuronowej wydobyć. Opracowali je na przykład informatycy z zespołu Google Brain pod kierunkiem dr Been Kim, tworząc system TCAV (Testing with Concept Activation Vectors).

Brytyjskie prawo jest teraz na etapie konsultacji i ma wejść w życie w 2020 roku. Wielka Brytania będzie pierwszym krajem, który wprowadzi obowiązek wyjaśnienia decyzji podejmowanych przez sztuczną inteligencję. Dotąd ta kwestia zaprzątała głównie badaczy, teraz postanowiła wkroczyć administracja.