- Europejczycy nie powinni być inwigilowani z użyciem nowych technologii
- Sztywne regulacje zabijają innowacje, to zła droga dla rozwoju
- Roboty nie mogą ponosić odpowiedzialności za wyrządzone szkody
Unijni eksperci ds. etycznej sztucznej inteligencji znów zabierają głos. Chcą pokazać, jakie niebezpieczeństwo dla etycznej sztucznej inteligencji tkwi m.in. w głębokim monitorowaniu społeczeństwa oraz pozostawianiu SI bez nadzoru. Dziś przedstawią swoje 33 zasady uczestnikom pierwszego zgromadzenia europejskiego aliansu SI.
Unijna etyka sztucznej inteligencji ma być tzw. etyką z założenia. Pracuje nad tym powołana przez Komisję Europejską grupa 52 niezależnych ekspertów ds. sztucznej inteligencji. Reprezentują środowiska naukowe, biznesowe i obywatelskie.
Zgodnie z przygotowanymi przez nich unijnymi wytycznymi normy moralne mają być zapisane w produktach i usługach SI już na początku projektowania każdej nowej technologii.
Dialog trwa
Wiarygodna i godna zaufania sztuczna inteligencja ma dać Europie przewagę gospodarczą i konkurencyjną producentów europejskich nad rozwiązaniami USA i Chin. Opracowanie technologii zgodnej z wysokimi standardami etycznymi ma też sprawić, że konsumenci ostatecznie będą wybierać europejskie produkty.
Gromadzący się dziś po raz pierwszy European Alliance AI to forum, które obejmuje ponad 3 tysiące obywateli europejskich i innych zainteresowanych stron w dialogu na temat przyszłości SI w Europie. Zalecenia – które przedstawi dziś grupa ekspertów sojuszu – są pierwszym krokiem Unii w określeniu warunków, w których sztuczna inteligencja powinna być rozwijana i wdrażana na jej rozległym rynku wewnętrznym. Choć niewiążące, mogą wpływać na decyzje polityczne podjęte przez Komisję Europejską w nowym, powyborczym składzie, która ma objąć urząd w listopadzie.
„Nie” dla inwigilacji
Eksperci chcą dziś pokazać, że sztuczna inteligencja wymaga konsekwentnego monitorowania. Przygotowany przez nich najnowszy dokument jest następstwem opublikowania wytycznych z 8 kwietnia, w których grupa określiła definicję technologii sztucznej inteligencji jako respektującej podstawowe wartości ludzkie, zapobiegające powodowaniu umyślnej lub niezamierzonej szkody. Teraz przedstawią listę 33 zaleceń dotyczących zarządzania SI. Zawiera m.in. ostrzeżenie przed wykorzystaniem SI do kontroli obywateli.
Casus Pekinu
Chiny rozwijają najnowocześniejszą SI do tworzenia zaawansowanego systemu nadzoru, którego głównym celem jest wygaszanie politycznych sprzeciwów.
Tymczasem kilka krajów europejskich (m.in. Serbia) zawarło umowy z chińskimi dostawcami platform monitorujących, a Wielka Brytania i Niemcy rozwijają technologię rozpoznawania twarzy. Dzieje się to w Unii Europejskiej, gdzie obywatele są chronieni surowymi przepisami dotyczącymi prywatności.
„Osoby nie powinny podlegać nieuzasadnionym identyfikacjom i profilowaniu metodami biometrycznymi opartymi na sztucznej inteligencji” – piszą eksperci w dokumencie, który zostanie zaprezentowany w trakcie Europejskiego Zgromadzenia Sojuszu SI (European Alliance AI) w Brukseli.
Celem jest omówienie najnowszych osiągnięć w polityce sztucznej inteligencji oraz przyszłych perspektyw europejskiej strategii na rzecz sztucznej inteligencji, w tym jej wpływu na gospodarkę i społeczeństwo.
Zasady nadzoru
Dokument wzywa do określenia granic dla aplikacji SI wysokiego ryzyka – takich jak systemy do masowego monitorowania osób lub grupowania ich według zachowań i cech. Powstające technologie mogą być na przykład nadużywane przez reżimy autorytarne, aby stworzyć wszechobecny aparat nadzoru. Muszą zatem istnieć „bardzo jasne i ścisłe zasady nadzoru dla celów bezpieczeństwa narodowego i innych celów, które rzekomo leżą w interesie publicznym lub narodowym”. Regulacje określające SI powinny być raczej ogólnymi zasadami przewodnimi niż szczegółowymi wytycznymi. Zbyt restrykcyjne przepisy mogą zabijać innowacje.
Groźna dyskryminacja
Eksperci chcą wprowadzenia obowiązkowego procesu kontroli niektórych aplikacji SI wysokiego ryzyka, opracowanych przez sektor prywatny. Ostrzegają, że ryzyko stwarzane przez sztuczną inteligencję wykracza poza nadużywanie przez rządy szpiegowania obywateli – większość współczesnych systemów sztucznej inteligencji działa poprzez znajdowanie korelacji w ogromnych masach danych i jest podatna na dyskryminację mniejszości. Dla przykładu narzędzia rekrutacyjne oparte na sztucznej inteligencji mogą dyskryminować kobiety lub oznaczać negatywnie oprogramowanie do analizy tekstu – jako żydowskie lub gejowskie. Społeczeństwo obywatelskie powinno być zaangażowane w definiowanie „czerwonych linii”, dla których aplikacje powinny być zakazane.
Maszyny bez winy?
Zdaniem ekspertów AI HLEG (High-Level Expert Group on Artificial Intelligence) roboty nie mogą być prawnie usankcjonowane jako osoby, aby móc ponosić odpowiedzialność za wyrządzone szkody.
„Apelujemy do decydentów, by powstrzymali się od ustanawiania osobowości prawnej dla systemów sztucznej inteligencji lub robotów” – stwierdzają w dokumencie – „Uważamy, że jest to zasadniczo niezgodne z zasadą ludzkiej działalności i odpowiedzialności oraz stanowi znaczną pokusę nadużycia”.
Rusza kolejny etap
W kwietniu br., po opublikowaniu unijnych wytycznych etyki SI opracowanych przez ekspertów AI HLEG w grudniu 2018 r. i zmodyfikowanych w trakcie konsultacji, Komisja zwróciła się do przedstawicieli sektora przemysłu, instytutów badawczych i organów publicznych w ramach Sojuszu SI o przetestowanie listy kontrolnej, stanowiącej uzupełnienie wytycznych.
Dziś rusza platforma – internetowa ankieta do zbierania informacji zwrotnych na temat wytycznych – rozpoczyna się etap pilotażowy z udziałem zainteresowanych. Potrwa do końca roku.
Na początku 2020 r. grupa dokona przeglądu list kontrolnych, a Komisja na tej podstawie zdecyduje o kolejnych działaniach.