Ekscytacja możliwościami cyfrowych technologii nie może zagłuszyć fundamentalnych pytań o relacje człowieka z inteligentnymi maszynami. Stawką jest nasza autonomia i człowieczeństwo. Czy mamy szansę stworzyć technologię, która będzie nam naprawdę przyjazna? – zastanawiali się eksperci podczas World Summit AI w Amsterdamie

Dziesięć ścieżek tematycznych, ponad 260 prelegentów, liczne panele dyskusyjne i warsztaty. Do tego prezentacje najnowszych technologii – zarówno od uznanych producentów, jak i dopiero marzących o sukcesie start-upów. W ciągu dwóch dni w trzeciej edycji World Summit AI w Amsterdamie – międzynarodowej konferencji poświęconej sztucznej inteligencji – wzięło udział ponad 6 tysięcy uczestników ze 162 państw. Dominował technooptymizm, nie zabrakło jednak przestróg przed nazbyt entuzjastycznym spoglądaniem w przyszłość.

Płycizny uczenia głębokiego

Gary Marcus, przedsiębiorca i naukowiec specjalizujący się w kognitywizmie, przekonywał, że dzisiejsze zachwyty nad możliwościami sztucznej inteligencji to w dużej mierze marketing, a nie obiektywny opis rzeczywistości.

Głębia w sieciach neuronowych odnosi się przede wszystkim do liczby warstw, a nie do dogłębnego oglądu świata – przekonywał.

Uczenie głębokie najlepiej sprawdza się w sytuacjach, gdy mamy do dyspozycji duże ilości danych. Znacznie gorzej radzi sobie, gdy danych jest niewiele. Dzieje się tak dlatego, że w przypadku uczenia maszynowego nie mamy do czynienia z autentycznym rozumieniem. To wciąż statystyka, a nie zbliżona do ludzkiej percepcja świata.

– Obawiacie się ataku robotów? Wystarczy po prostu schować się za toster czy przebrać za autobus. Będzie to dla nich wyzwanie nie do przejścia

Gary Marcus

Dzisiejsza SI jest przeciętnie inteligentna i posługuje się korelacją zamiast rzeczywistym zrozumieniem.

Prawdziwe rozumienie łączy się z naturalnym oglądem rzeczywistości – wyjaśniał Marcus. To podstawa ludzkiego odnajdywania się w świecie. Ludzie pojmują świat w kategoriach czasoprzestrzennych i przyczynowych. Dzięki tym ramom nasz umysł zyskuje elastyczność i uczy się rozwiązywać problemy. W przypadku uczenia maszynowego mamy natomiast do czynienia z etykietowaniem obiektów.

– Obawiacie się ataku robotów? – pytał sarkastycznie Marcus. – W takiej sytuacji wystarczy po prostu schować się za toster czy przebrać za autobus. Będzie to dla nich wyzwanie nie do przejścia.

Sztuczna inteligencja jak korporacja

Znacznie mniej żartobliwe było wystąpienie profesora Stuarta Russella z Uniwersytetu Kalifornijskiego w Berkeley. Jego zdaniem nawet jeśli dzisiejsze osiągnięcia SI czy robotyki wciąż pozostawiają wiele do życzenia, nie oznacza to, że nie mogą być groźne. Rzecz nie w tym bowiem, czy maszyny będą miały świadomość tego, co robią, czy nie, lecz czyje cele będą realizować.

Russell nawiązał do przygotowanego przed dwoma laty filmu „Slaughterbots” przestrzegającego przed konsekwencjami użycia śmiercionośnej autonomicznej broni.

Miniaturowe drony wyposażone w system rozpoznawania twarzy oraz zdolne do odpalenia ładunków wybuchowych to niebezpieczeństwo znacznie bardziej realne niż atak terminatorów – zauważał.

Musimy projektować SI, która nie zna celu swojego działania i wymaga kontaktu z człowiekiem, by zdobyć informacje o jego preferencjach – uważa Stuart Russell

Dzięki specjalnym czujnikom ruchu takie urządzenia będą niemożliwe do złapania przez człowieka, a ich działanie w grupie kilkudziesięciu bądź kilkuset gwarantuje skuteczność lepszą niż oddział specjalny.

Zabójcze drony to skrajny przypadek autonomicznych narzędzi. Jednak każdy inny system, który będzie w pewnych aspektach bardziej inteligentny od ludzi, może także okazać się trudny do kontrolowania. Przy czym wcale nie musi chodzić o cyfrową maszynę.

Przykład? Wystarczy spojrzeć na współczesne korporacje, przekonywał Russell. Zarządzane za pomocą zoptymalizowanych procesów (będących de facto algorytmami), których celem jest maksymalizacja zysków, działają bardzo sprawnie i wydajnie, choć ich cele są często sprzeczne z interesem ludzkości. I choć są przecież także dziełem człowieka, logika ich działania bywa dla nas zabójcza. Dlatego właśnie systemy SI powinniśmy budować tak, by były dopasowane do ludzi (human compatible AI).

Jak można to zrobić? Projektując SI, która nie zna celu swojego działania i wymaga kontaktu z człowiekiem, by zdobyć informacje o jego preferencjach, odpowiada Russell. To zadanie niełatwe, bo w wielu swoich działaniach ludzie nie są racjonalni, a poza tym jest nas na świecie 8 miliardów i każdy ma trochę inne oczekiwania wobec życia. Niemniej to sztuczna inteligencja winna dostosować się do ludzi, a nie ludzie do sztucznej inteligencji.

Gołębi taniec przed SI

Zupełnie inną perspektywę przyjął dr John Danaher z Uniwersytetu w Galway w Irlandii. Jego zdaniem ludzkie ograniczenia, takie jak nieracjonalność, uprzedzenia czy nadmiar wiary w siebie, stoją na przeszkodzie rozwojowi sztucznej inteligencji kontrolowanej przez człowieka. Dużo bardziej prawdopodobne jest, że systemy SI będą działać sprawniej, jeśli pozostawimy im autonomię, sami zaś zadowolimy się pozorami kontroli.

Nie rozumiejąc, jak naprawdę działają otaczające nas maszyny, będziemy łudzić się, że potrafimy jakoś wyjaśnić mechanizmy ich funkcjonowania. Faktycznie będziemy jednak podobni do gołębi z eksperymentu behawiorysty B. F. Skinnera, które gdy już raz przyzwyczaiły się do konkretnych reguł wydawania pożywienia, to w sytuacji zmiany zasad na zupełnie przypadkowe wytworzyły u siebie bezsensowne działania (np. stroszenie piór czy taniec), które w jakiś sposób rytualizowały zachowanie w tej niezrozumiałej sytuacji.

Danaher przewiduje, że ludzie w podobny sposób będą reagować na współpracę z nieprzejrzystą SI. Jak argumentuje, dziś to nie tyle SI jest ukryta w czarnych skrzynkach, ile raczej my sami tkwimy odizolowani w swoich małych światach otoczeni przez wszechobecną SI. Czy nie jest bowiem tak, że pytając o zdolność kredytową, którą wylicza maszyna, ani pracownik banku, ani klient nie wiedzą, co faktycznie zachodzi w systemie SI? Czy pracownicy Facebooka naprawdę wiedzą, jak działa mechanizm rekomendacji w ich serwisie społecznościowym?

Nie rozumiejąc, jak naprawdę działają otaczające nas maszyny, będziemy łudzić się, że potrafimy jakoś wyjaśnić mechanizmy ich funkcjonowania – twierdzi John Danaher

Zdaniem Danahera taka sytuacja będzie wiodła do narastających technoprzesądów. Brak zrozumienia, jak działają otaczające nas technologie, złudzenie kontroli nad nimi, utrata autonomii, a także zanik osiągnięć oraz poczucia własnej sprawczości to główne czynniki wpływające na taki stan rzeczy.

Co w tej sytuacji robić? Danaher uważa, że mamy dwie możliwości.

Pierwsza to rozbudowywać systemy SI o rozszerzenia, których celem jest wyjaśnić działanie sztucznej inteligencji, i liczyć na to, że w ten sposób stanie się ona dla nas bardziej zrozumiałe (co w praktyce może okazać się złudzeniem i wspomnianym gołębim tańcem).

Druga możliwość to zdać się całkowicie na autonomię tych systemów i nie opóźniać ich działania niepotrzebnymi mechanizmami ludzkiej pseudokontroli. Wyjścia, w którym moglibyśmy w pełni świadomie korzystać z transparentnych technologii, irlandzki filozof nie przewiduje.

Omówione powyżej wystąpienia zbiegły się w czasie z premierami nowych książek wszystkich trzech ekspertów. Dociekliwy czytelnik może więc sam sprawdzić, która argumentacja jest mu najbliższa – sceptycyzm Gary’ego Marcusa, ostrożność Stuarta Russella czy pesymizm Johna Danahera. Jedno jest pewne: dobroduszna wiara w postęp wynikający z samego rozwoju cyfrowych technologii powinna dziś u każdego budzić podejrzenia.


Konferencja World Summit AI odbyła się w dniach 9-10 października 2019 roku w Amsterdamie.

Portal Sztucznainteligencja.org.pl był partnerem medialnym World Summit AI 2019.


Read the English version of this text HERE