Myśląca maszyna ma o nas dbać, lepiej leczyć i sprawiedliwiej sądzić. Może też przejąć kiedyś władzę nad światem. Naprawdę warto w to wierzyć?

Ojciec nowożytnego empiryzmu, angielski filozof Francis Bacon, uważał, że ludziom we właściwym oglądzie świata przeszkadzają różne złudzenia. Między innymi te związane z niedoskonałością języka, jakim usiłujemy odwzorować rzeczywistość. Cztery wieki temu pisał: „(…) zły i niezręczny dobór wyrazów w dziwny sposób krępuje umysł. (…) Słowa zadają gwałt rozumowi, wszystko mącą i przywodzą ludzi do niezliczonych jałowych kontrowersji i wymysłów”*.

Gdyby Bacon mógł spojrzeć na naszą współczesność, zyskałby świetną ilustrację swojej teorii w tym, co dziś mówi się i pisze na temat sztucznej inteligencji. To pomieszanie faktów, medialnego szumu, marketingowej przesady i społecznych lęków.

Efekt? Chaos przekonań i zaburzona ocena rzeczywistości.

Zimny prysznic

Taki oderwany od realiów sposób mówienia i myślenia o sztucznej inteligencji szczególnie przeszkadza Gary’emu Marcusowi. Ten amerykański kognitywista i przedsiębiorca od lat polemizuje z przesadzonym obrazem inteligentnych maszyn kreowanym i przez entuzjastów, i przez krytyków SI. Podsumowaniem jego sporów jest napisana wspólnie z ekspertem ds. SI prof. Ernestem Davisem książka „Rebooting AI. Building Artificial Intelligence We Can Trust” (Zrestartować SI. Jak zbudować sztuczną inteligencję, której można ufać).

Marcus przekonuje, że współczesna SI, a szczególnie głębokie uczenie, nie dorasta do swojego wizerunku, zbudowanego przez speców od marketingu i żądnych atrakcji dziennikarzy. Wbrew ich deklaracjom SI jest dziś bowiem wciąż głupia, jeśli porównać ją z możliwościami przeciętnego dorosłego człowieka, a nawet małego dziecka.

Współczesna SI, a szczególnie głębokie uczenie, nie dorasta do swojego wizerunku, zbudowanego przez speców od marketingu i żądnych atrakcji dziennikarzy

Ktoś zapyta: Jak to? A AlphaGo?

Rzecz tym – wyjaśnia Marcus – że AlphaGo i podobne systemy nie mogą być traktowane jako inteligentne w klasycznym rozumieniu tego słowa (czyli potrafiące się odnaleźć w zmieniających się okolicznościach). Przypominają raczej sawantów, czyli osoby z zaburzeniami rozwoju, wybitnie uzdolnione w jednej dziedzinie (np. obdarzone świetną pamięcią), lecz dysfunkcyjne w pozostałych. To sprawia, że SI może co prawda pokonać najwybitniejszych graczy w go, lecz okaże się bezradna, gdy (bez wcześniejszego przeprogramowania) przyjdzie jej zagrać w kółko i krzyżyk lub odpowiedzieć na najprostsze pytanie. W przeciwieństwie do ludzi maszyny wciąż nie są bowiem uniwersalne, a ich elastyczność jest ograniczona.

Gary Marcus na konferencji Web Summit w Dublinie, 2014 r.

Oczywiście, komputery wykorzystujące SI są dziś częścią coraz większej liczby otaczających nas urządzeń. Każdy z nich jest jednak wyspecjalizowany w jednej dziedzinie i w przeciwieństwie do człowieka nie potrafi poza nią wykroczyć. Nasz sąsiad – bez względu na to, czy jest meteorologiem, czy szewcem – może bez problemu odpowiedzieć nam na pytanie, czy warto brać parasol przed wyjściem z domu. Spróbujcie zadać podobne pytanie maszynom. Asystent głosowy może na nie odpowie, ale inteligentny termostat ani nawet AlphaGo na pewno tego nie zrobią.

Bo liczy się rozumienie

Dlaczego maszynom tak trudno zbliżyć się do ludzkiego poziomu w na pozór banalnych codziennych zadaniach, podczas gdy prześcigają nas w zaawansowanej kombinatoryce? Dlatego, że maszyny specjalizują się dziś w rozpoznawaniu obiektów, podczas gdy człowiek rozumie znaczenie danej treści (tekstu, obrazu czy dźwięku) i odnosi ją do kontekstu, czyli świata zewnętrznego.

Dla powstających dziś maszyn to wciąż nieosiągalne. Aby mogły się czegoś nauczyć, potrzebują bowiem ogromnych ilości danych i wielkiej mocy obliczeniowej. Takie podejście sprawdza się, ale tylko w systemach zamkniętych – wyjaśnia Marcus. Realny świat jest jednak systemem otwartym, w którym liczba potencjalnych wariantów sytuacyjnych dalece wykracza poza możliwości działania współczesnych systemów.

By to zrozumieć, wystarczy uświadomić sobie, ile ważnych decyzji podejmujemy podczas najbardziej trywialnych czynności, na przykład sprzątania. Robot, który z bezpiecznej przestrzeni laboratorium miałby przejść do domowych realiów, znalazłby się nagle na polu zaminowanym tysiącami możliwości. Tylko właściwe dla człowieka rozumienie może pozwolić elastycznie odnajdywać się w takiej sytuacji.

Szum i antropomorfizacja

Te mało inteligentne systemy coraz częściej jednak towarzyszą naszej codzienności i mają wpływ na to, co robimy. Marcus, choć obnaża słabości współczesnej SI, nie lekceważy ryzyka związanego z istnieniem tych systemów w naszym otoczeniu. Sądzi on bowiem, że to właśnie ich głupota – a nie, jak chcieliby niektórzy, demoniczna superinteligencja przyszłości – jest źródłem zagrożenia dla człowieka. Pozornie inteligentne maszyny nie rozumieją bowiem naszego świata ani naszych wartości. Dlaczego zatem godzimy się na ich obecność?

Zdaniem Marcusa odpowiada za to zarówno medialny i marketingowy szum, jak ludzka podatność na złudzenia (opisana przed wiekami przez Bacona). Innym ważnym czynnikiem jest nasza skłonność do nadawania światu ludzkich cech oraz nieuprawnione utożsamianie postępu w jakichś wąskich obszarach z jego uniwersalnym zastosowaniem (np. poprawne działanie pojazdów autonomicznych we względnie łatwym do kontroli środowisku na autostradzie z poruszaniem się w centrum metropolii w godzinach szczytu).

Rozumiejąca człowieka sztuczna inteligencja nie narodzi się z dominującego dziś uczenia głębokiego

Czy można to zmienić? Tak, przekonuje Marcus, ale pod kilkoma warunkami.

Po pierwsze, musimy zrozumieć, o jaką stawkę toczy się gra (chodzi o nasze bezpieczeństwo i dobrobyt). Po drugie, trzeba pojąć, dlaczego dotychczasowe systemy nie działają tak, jak byśmy sobie tego życzyli (dalsze doskonalenie ich architektury nie przyniesie pożądanego przełomu, czyli przejścia do ogólnej SI, ponieważ brakuje im wiedzy przyczynowo-skutkowej i rozumienia znaczeń). Po trzecie, winniśmy przyjąć nową strategię działania.

Test Marcusa

O jaką strategię chodzi? Marcus wyjaśnia, że rozumiejąca człowieka SI nie narodzi się z dominującego dziś uczenia głębokiego. Jego zdaniem konieczne będzie uzupełnienie dzisiejszych systemów SI o „ręczne” programowanie na zasadach podobnych do niegdysiejszych systemów eksperckich. Oczekiwanie, że maszyny same nauczą się rozumieć ludzki świat, jest bowiem jałowe.

Odwołując się do wiedzy z kognitywistyki, Marcus argumentuje, że mózg jest wstępnie zaprogramowany w taki sposób, że ludzie i zwierzęta mogą sprawnie rozwijać niektóre swe umiejętności, nie musząc się ich uczyć drogą setek tysięcy powtórzeń. Podobne rozwiązania, zdaniem Marcusa, sprawdziłyby się również w przypadku SI. Wymagałoby to jednak zmiany modelu myślenia i poprowadzenia badań w kierunku innym niż ten, który dziś dominuje.

Czekając na dalszy rozwój wypadków, nie musimy jednak siedzieć bezczynnie. Korzystając ze wskazówek Marcusa, możemy zająć się weryfikowaniem newsów na temat nowych systemów SI pod kątem ich wiarygodności. Oto pytania, które warto sobie zadać, gdy słyszymy o kolejnym przełomowym odkryciu:

  1. Co naprawdę jest w stanie zrobić dany system, jeśli odrzucimy towarzyszącą mu retorykę medialną czy marketingową?
  2. Jak uniwersalne jest zastosowanie tego systemu?
  3. Czy twórca systemu udostępnił demo, które możemy przetestować?
  4. Jeśli twórca systemu twierdzi, że jego narzędzie jest lepsze od ludzi, to jakich ludzi ma na myśli i w jakim stopniu narzędzie ich przewyższa?
  5. W jakim stopniu dane osiągnięcie prowadzi nas w stronę prawdziwej (czyli ogólnej) SI?
  6. Jak wydajny/elastyczny jest dany system? Czy będzie działał na innych zbiorach danych i bez konieczności ponownego uczenia się?

Gary Marcus, Ernest Davis, Rebooting AI. Building Artificial Intelligence We Can Trust, New York 2019.

*Cytat za: Francis Bacon, Novum Organum, tł. J. Wikarjak, Warszawa 1955.