Paradoksalnie wiek inteligentnych maszyn jest czasem, w którym to ludzka kreatywność zyskuje przewagę i staje się cenionym dobrem rzadkim

Czy zdanie „bezbarwne zielone idee śpią wściekle” ma sens? Bez wątpienia nie. Jednak możemy łatwo stwierdzić, że w przeciwieństwie do zdania „wściekle zielone śpią bezbarwne” jest ono gramatycznie poprawne.

Przykład ten, podany przez amerykańskiego filozofa Noama Chomsky’ego, obrazuje pewną tajemniczą własność języka naturalnego i naszego umysłu. Oba zdania nie mają sensu, ale użytkownik języka może z łatwością stwierdzić, że pierwsze jest gramatyczne, a drugie nie. Skoro możemy „zrozumieć” bezsensowne zdanie na poziomie składni, to gdzie tkwi natura języka?

Twórcy nie wyginą

Chomsky użył tego przykładu również jako swojego argumentu przeciwko statystycznym modelom języka, które są jednym z filarów sztucznej inteligencji. Tymczasem z punktu widzenia modeli probabilistycznych oba są równie nieprawdopodobne. Sztuczna inteligencja nie mówi nam więc nic o naturze języka.

Peter Norvig, jeden ze współczesnych luminarzy sztucznej inteligencji z Google, polemizując z tezami Chomsky’ego wykazał, że współczesne modele probabilistyczne trenowane na dużych ilościach tekstu są w stanie wykryć różnicę między oboma zdaniami (uznają pierwsze za bardziej prawdopodobne niż drugie). Niemniej argumenty Chomsky’ego na temat kierunku rozwoju sztucznej inteligencji pozostają bardzo cenne. Sztuczna inteligencja potrafi dziś bardzo wiele, również w kwestii przetwarzania tekstu, jednak pewne rzeczy pozostaną na długo (jeśli nie na zawsze) domeną ludzkiej kreatywności.

Jak inteligentna jest SI

Termin „sztuczna inteligencja” wszedł już do normalnego użycia, chociaż do niedawna wywoływał różne emocje. Duży wkład w to miała niewątpliwie literatura science-fiction, która dość wcześnie podchwyciła temat inteligentnych komputerów wymykających się spod kontroli mniej inteligentnych ludzi, zniewalających ich i wyniszczających – albo w końcu im ulegających, tyle że po długiej i wyczerpującej walce. Nawet „ojcowie sztucznej inteligencji”, jak Marvin Minsky, John McCarthy, Claude Shanon czy Alan Turing, byli przekonani, że komputery „już wkrótce” – to znaczy w drugiej połowie XX wieku – przewyższą ludzi w inteligencji.

Mimo postępów w neurobiologii, nie potrafimy do końca opisać mechanizmów myślenia, zaś wobec świadomości jesteśmy nadal zupełnie bezradni

W pierwszej połowie XXI wieku, a więc ponad 70 lat po narodzinach dziedziny SI, wiemy już, że komputery są niezastąpione, jeżeli chodzi o obliczenia (computing), i żaden człowiek nie jest w stanie w tym z nimi konkurować. Sławny fizyk Richard Feynman znany był z popisywania się przeprowadzaniem skomplikowanych działań w pamięci. Jednak fakt, że każdy kieszonkowy kalkulator jest w stanie wykonywać znacznie bardziej skomplikowane działania znacznie szybciej nie dowodzi tego, że jest inteligentny – a już tym bardziej tego, że jest inteligentniejszy od Feynmana. To samo możemy powiedzieć o współczesnych programach grających w szachy czy w Go.

Mózg – komputer z mięsa

Przekonanie, że może być inaczej, jest nieporozumieniem. Ma ono swoje korzenie w nurcie myślenia zwanym komputacjonizmem. Mówiąc w skrócie, komputacjonizm zakłada, że operacje myślowe można zredukować właśnie do obliczeń, czyli rozwiązywania problemów na zasadzie „drzewka logicznego”. Mózg bowiem, jak wyraził się Marvin Minsky, to „komputer z mięsa”: jeżeli rozbierzemy go na części i poznamy funkcje wszystkich obwodów, to będziemy w stanie zobaczyć, gdzie przepływają myśli, jak komponuje się operę czy jak powstaje miłość. Bo wszystko można sprowadzić do matematycznego problemu, który następnie można rozwiązać.

Jest być może za wcześnie, aby mówić, że tak nie jest – ale twierdzenie, że tak jest, jest równie nieuzasadnione. Do dziś, mimo postępów w neurobiologii, nie potrafimy do końca opisać mechanizmów myślenia, zaś wobec świadomości jesteśmy nadal zupełnie bezradni. A świadomość jest kluczem do „inteligencji na poziomie ludzkim”.

Trudne słowo „metafora”

W 1980 r. George Lakoff i Mark Johnson, amerykańscy filozofowie języka, wydali głośną książkę pt. „Metaphores We Live By” („Metafory w naszym życiu”). Dowodzili w niej, że konstruowanie metafor nie jest umiejętnością szczególną, którą obdarzeni byliby jedynie pisarze i poeci – cały język naturalny składa się w dużej mierze właśnie z metafor. Metafora, czyli przenośnia, polega na użyciu słowa w innym znaczeniu niż jego znaczenie dosłowne. Ale czym jest dosłowne znaczenie? Jeżeli powiem, że „napotkałem trudności, które się spiętrzyły, ale znalazłem oparcie w ludziach, którzy wyciągnęli do mnie pomocną dłoń”, albo że „w lot uchwyciłem istotę problemu”, to używam takich sformułowań często nieświadom tego, że ich dosłowne znaczenie jest inne niż to, w którym ich używam. Tymczasem są to właśnie metafory, które odwołują się do pewnego doświadczenia, bez którego nie mógłbym ich zrozumieć.

To podstawowa teza przeciwnego wobec komputacjonizmu nurtu w kognitywistyce, zwanego „ucieleśnionym poznaniem” (embodied cognition). Hipoteza ucieleśnionego umysłu odrzuca redukcję myślenia jedynie do prowadzenia problemowych obliczeń. Ponieważ „myślimy całym ciałem”, nie bylibyśmy w stanie zrozumieć języka bez ciała. Nie byłoby dla nas śmieszne to, co jest teraz śmieszne; nie mielibyśmy gęsiej skórki przy słuchaniu muzyki i łzy nie napływałyby nam do oczu podczas oglądania smutnych scen filmowych. Umysł bez ciała byłby właśnie jak program komputerowy: przetwarzałby informacje, ale by ich nie rozumiał. Bez rozumienia, czyli odniesienia informacji do doświadczenia i działania, nie może natomiast być mowy o świadomości.

Co SI może napisać

Perspektywy zastąpienia zawodów kreatywnych przez sztuczną inteligencję są zatem nikłe, przynajmniej przy obecnym podejściu do SI. Sztuczna inteligencja to dość szeroka dziedzina, obejmująca przetwarzanie tekstu, rozpoznawanie obrazów, rozwiązywanie problemów, reprezentację wiedzy i wiele innych wątków pobocznych. Natomiast jej fundamentem jest proces uczenia maszynowego.

Ponieważ „myślimy całym ciałem”, nie bylibyśmy w stanie zrozumieć języka bez ciała. Umysł bez ciała byłby jak program komputerowy: przetwarzałby informacje, ale by ich nie rozumiał

Aby nauczyć komputer czegokolwiek (i w jakikolwiek sposób, jako że uczenie maszynowe przyjmuje różne formy), musimy dysponować pewnym zbiorem danych. Algorytm uczący się operuje na zbiorze, wykrywając konkretne zależności pomiędzy zdarzeniami i budując na tym pewną predykcję. W praktyce może to przetestować każdy z nas, korzystając np. z wyszukiwarki Google. Po wpisaniu słowa wyszukiwarka podsuwa nam to, co z dużym prawdopodobieństwem chcielibyśmy znaleźć. Wyszukiwarka jest bowiem nauczona, że wpisując „dlaczego mło”, mamy na myśli „młodzież”. Następnie podpowiada nam zestaw pytań dotyczących kondycji tej młodzieży. Tak właśnie działają wspomniane na początku modele probabilistyczne.

Powtarzanie sensu nie czyni

Modele probabilistyczne wytrenowane na odpowiednich zbiorach danych mogą zostać zaangażowane do przeróżnych form twórczości, w tym do pisania tekstów. Jeżeli nakarmimy algorytm zbiorem artykułów prasowych, będzie w stanie stworzyć na zawołanie wiele artykułów prasowych; jeżeli wytrenujemy go na zbiorze polskiej literatury pozytywistycznej, to będzie zdolny w krótkim czasie napisać powieść o rozmiarach „Lalki”.

Ale czy to sprawi, że ludzie staną się zbędni? Zdecydowanie nie.

Proste powtórzenie konstrukcji językowej nie sprawia, że nabiera ona sensu. Jeżeli tak by było, to każda osoba, która umie składać słowa w zdania, wystarczająco zdeterminowana do tworzenia dużej ilości tekstu, mogłaby stać się poczytnym pisarzem. Cóż, może się zdarzyć i tak, ale to raczej wyjątek niż reguła. Powieści i artykuły prasowe czytamy dlatego, że je rozumiemy – a więc mają one dla nas sens. Sensowną narrację może stworzyć tylko ktoś, kto jest zanurzony w podobnej rzeczywistości co odbiorca/czytelnik. Natomiast słowa przez niego używane nie mogą być jedynie powtórzeniem słów występujących w przeszłości, lecz muszą odnosić się do indywidualnego doświadczenia. Bez względu na to, jak bardzo projekt Talk to Transformer – generator tekstu oparty na technologii GPT-2, stworzonej w laboratorium OpenAI i uznawanej za przełomową – zaskakiwałby skutecznością w generowaniu „sensownych” bloków tekstu na podstawie co najmniej jednego słowa, jego działanie nie polega na twórczości i kreatywności. Prawdopodobieństwo
wygenerowania czegoś „znaczącego” jest więc nikłe.

Nie wszystkich można zastąpić

Rozwój SI na pewno oznacza kres pewnej epoki. Jeżeli spojrzymy na prognozy dotyczące tego, jakie zawody z dużym prawdopodobieństwem zostaną wkrótce zastąpione przez sztuczną inteligencję, dostrzeżemy pewną ironię losu. Zawody bezsprzecznie prestiżowe w XX wieku – prawnika, księgowego, finansisty – wymieniane są w czołówce profesji „zastępowalnych”. Wysoki próg wejścia, który czynił z nich zawody prestiżowe, okazał się ich słabością w starciu z rozwojem technologicznym.

Oczywiście nie wszyscy kreatywni są bezpieczni. Relatywnie niski próg wejścia nie oznacza przecież braku jakichkolwiek wymagań dla copywritera, marketera czy artysty. Chodzi o to, że paradoksalnie wiek inteligentnych maszyn jest jednocześnie czasem, w którym to ludzka kreatywność zyskuje przewagę i staje się cenionym dobrem rzadkim.


Olgierd Sroczyński z wykształcenia filozof (Uniwersytet Jagielloński), pracuje jako analityk w Synerise, polskiej platformie opartej na rozwiązaniach sztucznej inteligencji. Jest członkiem Towarzystwa Etyki i Filozofii Techniki.