Nawet najlepsze standardy nie zagwarantują etycznego rozwoju SI. Do ich urzeczywistnienia potrzeba jeszcze ram prawnych oraz mechanizmów potwierdzających znajomość etyki technologii. I dobrej woli
Czy sztuczną inteligencję można rozwijać z korzyścią dla człowieka i świata? Gdzie szukać wskazówek, jak to robić? W jaki sposób sprawić, by SI była godna zaufania nie tylko na papierze?
Z tymi i nie tylko tymi pytaniami zmierzyli się mec. Robert Kroplewski i dr Sebastian Szymański podczas webinarium „Autonomia kontra automatyzacja – etyka sztucznej inteligencji”, będącego częścią GovTech Festival.
Prawo, etyka, niezawodność
– Podstawą unijnej koncepcji sztucznej inteligencji są nie tylko zasady etyczne, ale również zgodność z prawem oraz techniczna niezawodność – mówił mec. Kroplewski. – Dlatego tak ważne jest, aby jak najszybciej stworzyć ramy prawne, na których ma się ona opierać. Im później powstaną, tym mniejsze szanse na urzeczywistnienie godnej zaufania SI (trustworthy AI).
Na zmiany wywoływane przez SI powinniśmy też patrzeć raczej jak na rewolucję kulturową, a nie tylko przemysłową
Dodał, że na zmiany wywoływane przez SI powinniśmy też patrzeć raczej jak na rewolucję kulturową, a nie tylko przemysłową. Dziś godność ludzka, stanowiąca źródło i cel porządku prawa, często ustępuje innym priorytetom. Najlepszym dowodem jest korporacyjny model myślenia, w którym klasyczny katalog wartości (jak dobro, prawda czy piękno) jest zastępowany przez myślenie w kategorii usług.
Dr Szymański wskazał na cztery główne sfery problemów związanych ze sztuczną inteligencją. Po pierwsze, chodzi o wywieranie wpływu na preferencje użytkowników, co może skutkować manipulacją i ograniczeniem autonomii. Po drugie, o delegowanie decyzji na SI, co często wpływa na ich niezrozumiałość oraz rodzi wątpliwości co do odpowiedzialności za nie. Po trzecie, o stronniczość danych wykorzystywanych do uczenia SI, skutkującą dyskryminacją i niesprawiedliwością społeczną. Wreszcie o implementację etycznych zasad w maszynach i wynikające stąd wątpliwości co do ich źródła.
Standardy? Tak, ale czyje?
Standardy etyczne rodzą też inne wątpliwości, dodał Szymański. Chodzi o to, kto ma je tworzyć i jaką ma do tego podstawę. Oraz o to, przez kogo i jak mają być egzekwowane.
To niełatwy problem, o czym mogli się przekonać uczestnicy webinarium przy okazji pytania o etyczne certyfikowanie osób bądź firm zajmujących się sztuczną inteligencją. Zdaniem dr. Szymańskiego jakaś forma publicznego potwierdzenia kompetencji jest konieczna, byśmy mogli skutecznie wdrażać normy etycznej SI. Z kolei mec. Kroplewski zauważył, że certyfikacja może się przerodzić w oręż walki konkurencyjnej i służyć bardziej promowaniu produktu niż przeciwdziałaniu szkodom.
Na ryzyko związane z etyką SI zwrócił też uwagę dr Szymański. Samo istnienie choćby najlepszych norm etycznych nie gwarantuje jeszcze ich przestrzegania, przekonywał. Bo mogą się one stać przedmiotem manipulacji, jak dzieje się to na przykład w wypadku wybiórczego stosowania reguł bądź traktowania reguł wyłącznie jako narzędzia do poprawy wizerunku.
Webinarium zostało przygotowane we współpracy GovTech Polska, portalu Sztuczna Inteligencja oraz jego wydawcy – Ośrodka Przetwarzania Informacji – Państwowego Instytutu Badawczego (OPI PIB)