Eksperci i praktycy prawa są zgodni – technologie muszą być uregulowane jak najszybciej. Ale te regulacje trzeba odpowiednio przygotować, aby nie zaburzać postępu
W dniach 16-17 października w Krakowie odbyła się konferencja online pt. „Nowe technologie i sztuczna inteligencja. Aspekty prawne i praktyczne ekosystemu zaufania”. Wydarzenie zostało zorganizowane przez Uniwersytet Pedagogiczny im. Komisji Edukacji Narodowej w Krakowie i jego Akademię Prawa Nowych Technologii, Katedrę Prawa Cywilnego i Prawa Prywatnego Międzynarodowego na Uniwersytecie Kardynała Stefana Wyszyńskiego oraz Ośrodek Przetwarzania Informacji – Państwowy Instytut Badawczy (OPI PIB).
Kilkudziesięcioro ekspertów, w tym wielu prawników, podczas ponad 60 paneli próbowało wskazać największe wyzwania związane z dziedziną sztucznej inteligencji i poszczególnymi obszarami prawa, jak również legislacyjnymi i społecznymi skutkami braku odpowiednich rozwiązań na gruncie prawa krajowego i unijnego. Poruszono kwestie prywatnoprawnych aspektów ochrony sztucznej inteligencji, nowych technologii z perspektywy prawa publicznego, ochrony prawnej wytworów nowych technologii sztucznej inteligencji, praw człowieka czy nawet wpływu na funkcjonowanie nauki w społeczeństwie. Nie zapomniano o temacie cyberbezpieczeństwa, jak również nowych technologii jako narzędzia w gospodarce, finansach i mediach, w tym mediach społecznościowych.
Dobre prawo? Ramy, nie bariery
Otwierający konferencję panel rozpoczęła prof. dr hab. Elżbieta Traple – polska prawnik, adwokat, profesor nauk prawnych, nauczyciel akademicki Katedry Prawa Cywilnego Wydziału Prawa i Administracji Uniwersytetu Jagiellońskiego.
Prof. Traple wskazała, iż jednym z najważniejszych warunków rozwoju sztucznej inteligencji jest dostęp do jak największej ilości danych, ale wiąże się on z ważnymi ograniczeniami.
– Im więcej danych dobrej jakości, tym SI będzie bardziej inteligentna – prof. Traple zaczęła od prawdy coraz bardziej rozpowszechnionej także wśród laików. – Problemy prawne, jakie wiążą się z danymi wytworzonymi przez podmioty trzecie, powiązane są jednak z ochroną prawną tych danych, jak i prawami własności intelektualnej. Każdy, kto wykorzystuje te dane w procesie text & data mining, musi upewnić się, czy ma legalny dostęp do tych danych i może legalnie z nich korzystać – zaznaczyła.
Oczywiste jest bowiem, że rozwiązania wykorzystujące SI, aby mogły być bezpiecznie wprowadzane na rynek, muszą korzystać z danych legalnych. W tym procesie stworzono odpowiednie normy prawne i regulacje. Niestety, jak zauważyła prof. Traple, nie zawsze idzie to w parze ze skutecznością i rozwojem technologii.
– Jeżeli przypatrzymy się regulacjom, jakie zostały wprowadzone na rynku amerykańskim, to są one bardziej elastyczne, w dużo większym stopniu pozwalają na rozwój sztucznej inteligencji. Celem, jaki przyświecał Unii Europejskiej w nowej dyrektywie o ochronie praw autorskich na jednolitym rynku cyfrowym, była chęć podjęcia rywalizacji wobec rynku amerykańskiego. Ten cel nie został osiągnięty. Regulacja, która pojawiła się nowej dyrektywie, nie pozwoli na wyrównanie szans i zwiększenie konkurencji – stwierdziła prof. Traple.
Regulacje – tak, ale chcemy konkretów
Rozwojowi sztucznej inteligencji przyjrzał się też dr hab. Bogdan Fischer, kierownik Katedry Prawa Informacyjnego, Mediów i Własności Intelektualnej i prof. UP w Krakowie.
Zauważył, że aktualnie jesteśmy jeszcze na etapie wąskiej (inaczej słabej) sztucznej inteligencji, skupiającej się na rozwiązywaniu najczęściej jednego zadania, które potrafi rozwiązać lepiej niż człowiek. W tej chwili nie ma rozwiązań, które mogłyby być silną SI i samodzielnie rozwiązywać konkretne zadania. Dodatkowo korzystamy z urządzeń, które mają ograniczoną pamięć, absolutnie nie jesteśmy na etapie samoświadomości SI, która mogłaby wzbudzać obawy o skutki działania tych rozwiązań. Wszystko jednak może się zmienić, jeśli technologią będzie dalej się rozwijała.
Każdy, kto wykorzystuje dane w procesie text & data mining, musi upewnić się, czy ma legalny dostęp do tych danych i może legalnie z nich korzystać
prof. dr hab. Elżbieta Traple, Uniwersytet Jagielloński
– Potrzebujemy danych, i to dużych wolumenów danych. Jeśli ich nie będziemy mieli, to SI będzie na tyle sztuczna, że nie będziemy mogli jej nawet tej etykiety nadać. To jest kluczowe dla SI. Aby tego dokonać, należy przedsięwziąć pewne plany regulacji – przekonywał prof. Fischer. – Aktualnie mamy różnego rodzaju działania podejmowane przez UE, waga tego typu działań jest nadal różna. Rok 2020 wydawał się przełomowy. Pojawiła się bowiem europejska strategia w zakresie danych i „Biała księga ws. SI”, które wskazały, że UE musi stworzyć jednolity system danych, który będzie umożliwiał swobodny ich przepływ – mówił prof. Fischer. – Można mieć jedna niedosyt co do tych dokumentów, ponieważ na tym etapie oczekiwaliśmy czegoś konkretnego, to powinna być podstawa, pewne wsparcie dla rozwiązań regulacyjnych, a tak się nie stało – zauważył.
Państwa zostały w tyle
Analiza i wykorzystanie danych w celu usprawnienia pewnych rozwiązań technologicznych mają oczywiście bezpośredni wpływ na społeczeństwo. Dlatego dr hab. Arwid Mednis z Wydziału Prawa i Administracji Uniwersytetu Warszawskiego wskazał też na pewne niedomagania państwowych instytucji.
– Mam wrażenie, że organy ochrony danych zarówno w Polsce, jak i na świecie nie są w stanie skutecznie chronić obywateli przed nowymi modelami narzędzi i programów wykorzystujących sztuczną inteligencję – mówił. – Nie wiem, czy te organy są w stanie badać narzędzia analityczne wykorzystujące informacje o obywatelach pod kątem ochrony danych. Wiedza z zakresu IT może już nie wystarczać. Mam spore wątpliwości co do takiej skuteczności. Dotyczy to zarówno wykorzystania wizerunku, jak i na przykład systemów, na których podstawie ocenia się zdolność kredytową w banku – przestrzegał. – Warto może pomyśleć o nowych organach mających skuteczne narzędzia do takiej ochrony. Moim zdaniem jesteśmy na początku dyskusji, jaka ma być rola państwa i kierunki regulacji prawnej sztucznej inteligencji o charakterze administracyjno-prawnym – dodał dr Mednis.
Apel o współpracę
Czy sztuczna inteligencja zmieni prawo, jakie znamy do tej pory? A może zmieni prawników?
– Sztuczna inteligencja daje prawnikom ogromne możliwości pozyskania dodatkowych kompetencji i prowadzenia fascynujących badań naukowych – zaczął entuzjastycznie dr hab. Dariusz Szostek, profesor Wydziału Prawa Uniwersytetu Opolskiego. – Jednak są bardzo poważne cienie tej rewolucji. Mamy potężne wykluczenie cyfrowe, i to nie tylko wśród prawników, ale i całego społeczeństwa. Czeka nas też poważna zmiana stylu pracy. Czy każdy będzie mógł się w tym odnaleźć? Tego nie wiemy. Czeka nas też bezrobocie i brak pracy, którą zabierze nam sztuczna inteligencja – przestrzegał.
Zdaniem prof. Szostka regulacja SI w obszarze prawa globalnie nie jest na razie możliwa, choć może się to udać regionalnie.
– My jako prawnicy musimy współpracować w ekspertami z innych dziedzin. Każda definicja SI bez konsultacji czy dyskusji z ekspertami od technologii pozostanie tylko definicją. Czeka nas poważne wyzwanie w dziedzinie polskiej nauki i polskiej dydaktyki. Musimy poważnie patrzeć w kierunku legal tech, czyli inżynierii prawa. Wykorzystania SI w praktyce, a nie tylko w teorii – dodał ekspert.
Nie wszędzie z SI
Zagadnienia prawne związane ze sztuczną inteligencją mają też wpływ na działanie systemu nauki.
Czy sztuczna inteligencja może zostać wykorzystana choćby przy ewaluacji osiągnięć naukowych instytucji? Emocje z tym związane studził podczas konferencji dr Piotr Rodzik, ekspert z OPI PIB, wskazując, że SI nie wszędzie będzie mogła znaleźć zastosowanie.
Dr Rodzik przywołał system POLon – czyli najbardziej obszerne repozytorium danych o polskiej nauce i szkolnictwie wyższym – zastrzegając, że raczej nie zostanie on „przejęty” przez sztuczną inteligencję.
– Ze względu na ograniczenia prawne nie możemy zastosować SI przy ewaluacji osiągnięć naukowych. Punkt, który jest niejako gwoździem do trumny, to trzecie kryterium o dowodach wpływu [działalności naukowej na funkcjonowanie społeczeństwa i gospodarki], które ewaluowany organ powinien zamieścić w systemie teleinformatycznym. Musi on bez względu na wielkość zamieścić co najmniej dwa opisy, a oceny wpływu są dokonywane przez ekspertów powołanych przez ministra na wniosek przewodniczącego komisji ewaluacyjnej. W tym przypadku albo rezygnujemy z takiego kryterium i tracimy punkty, jeśli chcielibyśmy zastosować SI, lub nie stosujemy SI w procesie ewaluacji jakości działalności naukowej – stwierdził dr Rodzik.
Badania jak na drożdżach
Naukowcy jednak coraz bardziej rozpisują się o inteligentnych algorytmach. Ciekawą analizę pokazała podczas konferencji Agata Frankowska z Laboratorium Analiz Statystycznych OPI PIB. Analiza bibliometryczna działalności naukowej w zakresie SI na świecie została opracowana na podstawie danych ze Scopus. To naukowa baza danych prowadzona przez wydawnictwo Elsevier, zawierająca informacje o opublikowanych pracach naukowych, takich jak artykuły w czasopismach naukowych, książki, materiały konferencyjne oraz patenty.
Okazuje się, że liczba publikacji dotyczących SI na świecie stale wzrasta, szczególnie dynamicznie od 2016 i 2017 roku. Liderami pod względem publikacji są Chiny, USA i Indie.
– Około 50 procent prac indeksowanych w bazie Scopus zostało przygotowanych przez te trzy państwa. W Unii Europejskiej takim liderem była Wielka Brytania – mówiła ekspertka OPI. – Oczywiście liczba publikacji o SI nie przekuwa się automatycznie w jakość. Wpływ opublikowanych prac mierzony jest cytowaniami – podkreślała. – Największy wpływ mają jednak Stany Zjednoczone, pozostawiając Chiny w tyle. USA i Chiny przygotowują najwięcej prac w obszarze SI, ale jeżeli spojrzymy na częstość cytowania, to [w przypadku Państwa Środka] była dwa razy mniejsza. Z kolei w Europie większą częstością cytowania mogą się pochwalić Belgowie czy Holendrzy, a nie liderujący Brytyjczycy – mówiła Frankowska.
A co z Polską?
– Polska znajduje się na szóstym miejscu w ogólnym rankingu według ogólnej liczby publikacji o tematyce SI. Jest to wynik, który koresponduje z potencjałem demograficznym kraju. Jednak wpływ tych prac, biorąc pod uwagę liczbę cytowań, jest nieco mniejszy. Polscy uczeni też nadal mało współpracują z innymi ekspertami przy opracowaniu tych publikacji, co jest minusem, ponieważ prace stworzone we współpracy są o wiele częściej cytowane, mają większą szansę odbioru na arenie międzynarodowej – zauważyła ekspertka OPI PIB.
Organizatorem konferencji był m.in. Ośrodek Przetwarzania Informacji – Państwowy Instytut Badawczy, a portal sztucznainteligencja.org.pl – wydawany przez OPI PIB – był patronem medialnym wydarzenia
Warto dodać, że podczas konferencji swoje prelekcje wygłosili także inni eksperci OPI PIB, m.in. dr inż. Andrzej Sadłowski z Laboratorium Inteligentnych Systemów Informatycznych: „SI jako gra w totolotka”, oraz Antoni Sobkowicz z Laboratorium Inżynierii Lingwistycznej z wystąpieniem „Czy mnie jeszcze pamiętasz – analiza zmian czasowych w występowaniu odniesień do polityków w kłótniach internetowych na przestrzeni 2010-2020 z użyciem algorytmów nauczania maszynowego”. Moderatorem sobotniego panelu „Nowe technologie w mediach, wymagania i zagrożenia” był Luigi Lai z Działu Zasobów Informacyjnych.