Cyberbezpieczeństwu i sztucznej inteligencji poświęcono trzecią edycję Cyber Academy – konferencji na temat cyfrowych technologii organizowanej przez Szkołę Główną Handlową i TeamLine
11 kwietnia w Warszawie podczas dwóch równoległych sesji wystąpiło 20 prelegentów reprezentujących światy biznesu, nauki, mediów, administracji oraz organizacji pozarządowych. Uczestnicy wysłuchali wystąpień m.in. na temat zmian w gospodarce wynikających z rozwoju technologii mobilnych, praktycznych zastosowań SI w biznesie, a także kierunków rozwoju tzw. etycznej SI.
Konferencję zainaugurował dr Grzegorz Koloch z SGH wykładem na temat granic sztucznej inteligencji. Zwrócił uwagę na rosnące znaczenie wyjaśnialnych modeli SI (explainable AI, XAI). O co w nich chodzi? O to, by narzędzia wykorzystujące uczenie maszynowe były w stanie wyjaśnić swoje decyzje użytkownikom. Ci ostatni powinni wiedzieć, dlaczego system akceptuje bądź odrzuca daną możliwość, kiedy można zaufać jego predykcjom, a kiedy stwierdzić, że wystąpił błąd.
Wzmocniona, nie sztuczna!
Sesję poświęconą sztucznej inteligencji rozpoczęło wystąpienie Renaty Bileckiej z centrum badawczo-rozwojowego Samsunga. Mówiła o rozwoju cyfrowych ekosystemów osobistych, który będzie coraz szybszy dzięki trzem czynnikom: technologiom mobilnym, SI oraz internetowi rzeczy. Bilecka podkreślała, że budowa przydatnych rozwiązań w tym obszarze wymaga szerokiego i wielowymiarowego spojrzenia.
Zwracała też uwagę, że na co dzień nie myślimy o wielu otaczających nas technologiach jako o SI. Jednak ze względu na to, że sztuczna inteligencja niebawem będzie wszechobecna, musimy właściwie rozumieć te systemy, by ich bezpiecznie używać. Ma to znaczenie zarówno dla konsumentów, jak i producentów. Bez tej świadomości nowoczesne systemy wykorzystujące algorytmy będą budzić niepokój i nieufność. Przekonywała do zastąpienia terminu „sztuczna inteligencja” (artificial intelligence, AI) określeniem „wzmocniona inteligencja” (augmented intelligence), aby lepiej oswoić nowoczesne narzędzia.
Jak wdrażać SI w firmie
Tomasz Huś z PZU Lab poświęcił swoje wystąpienie praktycznym zastosowaniom SI w biznesie. Rozpoczął od prezentacji danych ilustrujących korzyści różnych branż z wykorzystania sztucznej inteligencji. Następnie zwrócił uwagę na niedobór specjalistów w tej dziedzinie i konieczność ich intensywnego kształcenia. Jako przykład podał Francję, która do roku 2022 zamierzać wykształcić milion specjalistów SI.
Wskazał również cztery główne warunki skutecznego wdrożenia sztucznej inteligencji w firmie:
- właściwe zrozumienie, czego można oczekiwać od systemów SI;
- traktowanie danych jako kapitału;
- stworzenie zespołu ds. SI złożonego z analityków, specjalistów SI i informatyków;
- posiadanie wizji wykorzystania SI przez zarząd firmy.
Szczególne znaczenie przypisywał skutecznej współpracy pomiędzy różnymi grupami specjalistów tworzących zespół ds. SI oraz świadomości celów wykorzystywania nowych technologii wśród decydentów.
Dlaczego technologia ma być etyczna
Mecenas Robert Kroplewski z Ministerstwa Cyfryzacji przedstawił szeroki kontekst unijnej rekomendacji w sprawie etycznej sztucznej inteligencji. Podkreślił, że nasza znajomość SI sprowadza się dziś głównie do samej technologii, natomiast dużo słabiej znamy jej szerokie oddziaływanie społeczne. Wiemy jednak, że pozostawienie rozwoju SI bez kontroli zaowocuje wzmocnieniem skrajnie komercyjnego modelu, w którym dominuje siła i prędkość, a prawa człowieka są drugorzędne. Dlatego właśnie potrzebujemy SI skoncentrowanej na człowieku (Human Centric AI).
Różne gospodarki na świecie zrozumiały – przekonywał Kroplewski – że muszą same się zdefiniować. Nie mogą sobie pozwolić na to, by zrobiła to za nie konkurencja. Etyczna SI to zatem nie tylko działanie na rzecz autonomii człowieka w erze inteligentnych maszyn, ale również europejski pomysł marketingowy. Godna zaufania SI ma dać przewagę konkurencyjną Staremu Kontynentowi.
Uzgodnienie wartości wspólnych dla różnych społeczeństw nie jest jednak łatwe. Aby uniknąć relatywizmu, możemy szukać punktu wyjścia w pojęciu godności człowieka. Takie aksjologiczne ujęcie mogłoby być, zdaniem Kroplewskiego, wkładem Polski w prace nad etyką nowych technologii.