Godna zaufania, odpowiedzialna, przyjazna. Różne określenia, jedna idea: sztuczna inteligencja, która działa dla naszego dobra. Czy coraz więcej inicjatyw na rzecz etycznej SI rzeczywiście gwarantuje bezpieczne wykorzystywanie tej technologii?

Jedna odmówiła zasiłku inwalidzie. Druga okazała się rasistką. Kolejna sprawiła, że posadę stracił doświadczony pracownik. Podobne przykłady niekompetencji SI można mnożyć. Stronniczość, uprzedzenia, brak transparentności – to najpowszechniejsze zarzuty pod adresem systemów SI wykorzystywanych dziś w różnych sektorach na całym świecie. To właśnie sprzeciw wobec ich niedoskonałości zrodził pomysł etycznej sztucznej inteligencji.

Dziś tworzenie zasad czy kodeksów gromadzących wskazówki, jak rozwijać SI, by nie krzywdziła ludzi, należy do dobrego tonu. Coraz więcej firm i instytucji powołuje zespoły i komitety do formułowania odpowiednich rekomendacji. Taki stan rzeczy cieszy, jednak rodzi się pytanie, czy sama obecność tego rodzaju wytycznych wystarczy, byśmy mogli się cieszyć salomonowymi wyrokami SI.

Luciano Floridi, filozof z Oksfordu specjalizujący się w etyce nowych technologii, uważa, że nadszedł czas, byśmy od reguł etycznej SI przeszli do sposobów ich wprowadzenia w życie. Jego zdaniem ten drugi etap będzie się wiązał z kilkoma niebezpieczeństwami.

Do wyboru, do koloru

Popularność etycznej SI sprawiła, że na jej temat powstaje dziś na świecie wiele opracowań. Nie wszystkie zalecają jednak takie same rozwiązania: jedne z nich są bardziej surowe, inne mniej. W ten sposób powstał bogaty zbiór idei i pomysłów, w którym każdy znajdzie coś dla siebie. W tym właśnie problem.

Zdaniem Floridiego może to prowadzić do sytuacji, w której firmy i instytucje dobierają sobie najdogodniejsze dla siebie kodeksy etyczne, tak by nie musieć modyfikować tworzonej przez siebie technologii, a zarazem móc przedstawiać ją światu jako zgodną ze standardami etyki. W konsekwencji będzie to prowadzić do rozmycia zasad, mniejszej konkurencyjności i ograniczenia odpowiedzialności.

Stworzenie etycznych ram dla funkcjonowania sztucznej inteligencji to dopiero początek. Czas przetestować szczytne idee w środowisku naturalnym. Czy sprostają prozie życia i pokusom rynku?

W takim ujęciu tworzenie etycznej SI niebezpiecznie zbliża się do pozorowanych działań z obszaru CSR, czyli społecznej odpowiedzialności biznesu. Takie przedsięwzięcia dość często zamiast faktycznie przeciwdziałać szkodom wynikłym z działalności jakiejś organizacji, okazują się PR-owymi chwytami, których jedynym celem jest ocieplenie wizerunku firmy, a nie zmiana modelu działań na bardziej przyjazny środowisku czy obywatelom. Etyczna SI też może posłużyć za tego rodzaju przykrywkę.

Po co nam prawo

Innym nadużyciem etycznej SI może być wykorzystywanie jej do blokowania legislacji. Kodeksy etyczne służą wtedy za swoistą zasłonę dymną. Lobbyści mogą argumentować, że prawo nie nadąża za rozwojem technologii, niepotrzebnie ogranicza biznes, a przecież firmy są w stanie same regulować swoją działalność, korzystając z dobrych praktyk.

Taka postawa, choć obliczona na krótką metę, może przynieść wiele złego w dłuższej perspektywie. Floridi przekonuje, że jej negatywnym efektem byłoby nie tylko odwleczenie w czasie prac nad regulacjami prawnymi dotyczącymi SI, ale też utrata zaufania do branżowych kodeksów w ogóle.

Problemy? Na eksport!

Przestrzeganie zasad etycznej SI może również okazać się wybiórcze. Zdaniem Floridiego łatwo wyobrazić sobie sytuację, w której działania nieakceptowane przez kodeks danej firmy są przenoszone za granicę, gdzie podobne obostrzenia nie obowiązują. Inny wariant takiego podejścia to importowanie rozwiązań, które ktoś inny opracował, nie stosując się do naszych norm. W przypadku państw europejskich mogłoby to na przykład dotyczyć niektórych systemów wyprodukowanych w USA lub Chinach, gdzie nie obowiązują europejskie zasady ochrony danych osobowych.

Podobna postawa jest też jednak możliwa w obrębie jednego kraju. Zasady etyczne mogą wtedy stosować się przede wszystkim do osób lepiej sytuowanych, lecz nie obejmować tych, którym powodzi się gorzej. W takim przypadku kryterium stosowania zasad etycznych jest społeczne uprzywilejowanie bądź jego brak.

Mechanizm bezpieczeństwa

Floridi nie neguje potrzeby etycznej SI (ani etyki żadnej innej technologii). Przestrzega jedynie przed scenariuszami, w których dobre intencje okazują się listkiem figowym dla szkodliwych praktyk, a nawet je wzmacniają. Czy można temu jakoś przeciwdziałać?

Istnieje kilka sposobów.

  • Po pierwsze, potrzebne są jasne, precyzyjne i jak najszerzej akceptowane standardy etycznej SI (unijne wytyczne w zakresie etyki SI są tutaj dobrym przykładem).
  • Po drugie, konieczna jest rzetelna edukacja: zarówno na temat dobrych praktyk SI, jak i ich nieuczciwego wykorzystywania.
  • Po trzecie, instytucje tworzące SI, które chcą szczycić się statusem etycznych, powinny zapewnić swoim działaniom przejrzystość, tak by nie było wątpliwości, że naprawdę wprowadzają w życie deklarowane wartości. Mogłyby to potwierdzać odpowiednie certyfikaty.
  • Po czwarte, kodeksom etycznej SI musi też towarzyszyć odpowiednie prawo i związana z nim jasna odpowiedzialność za całość działań podejmowanych przy pracy nad danym rozwiązaniem (bez możliwości przeniesienia wątpliwych etycznie zadań za granicę).

Stworzenie etycznych ram dla funkcjonowania sztucznej inteligencji to zatem dopiero początek. Teraz czas przetestować szczytne idee w środowisku naturalnym. Miejmy nadzieję, że sprostają prozie życia i pokusom rynku.