Nie wierzę, że maszyny będą współzawodniczyć z człowiekiem jako zupełnie niezależne byty. Z prof. Witoldem Pedryczem rozmawia Robert Siewiorek

Robert Siewiorek: Jaki jest związek między sztuczną inteligencją a ziarnami informacji (granular computing) – dziedziną, w której się pan specjalizuje?

Witold Pedrycz*: Sztuczna inteligencja, kiedy pojawiła się w latach 50., była związana z przetwarzaniem symbolicznym, tak zwanym symbolic processing, stając się na długi czas synonimem tego kierunku.

W przeciwieństwie do przetwarzania numerycznego?

Tak, w przeciwieństwie do przetwarzania liczb, rozwiązywania układów równań różniczkowych, liniowych i tak dalej. Sztuczna inteligencja to operowanie na symbolach, czyli działanie na wyższym poziomie abstrakcji. Symbol jest czymś znacznie bardziej abstrakcyjnym od liczby.

Gdzie pojawia się związek pomiędzy ziarnami informacji a SI? Jeżeli przyjmiemy, że sztuczna inteligencja przez pewien okres swego rozwoju była związana z przetwarzaniem symbolicznym, a nie numerycznym, to zauważymy, że centralnym punktem sztucznej inteligencji w tym czasie i, podejrzewam, także dziś jest to samo zagadnienie. Otóż nasz świat rzeczywisty jest światem danych liczbowych. A pojęcia abstrakcyjne, czyli symbole, są wytworem naszego spojrzenia na świat.

Interpretowania liczb?

Tak. Jeżeli przedstawię panu kartkę z liczbami opisującymi na przykład temperaturę w ostatnich miesiącach i poproszę, by pan te liczby scharakteryzował, może pan odpowiedzieć, że to duże liczby. Bo przecież ostatnio było gorąco.

W ten sposób buduje pan pewną abstrakcję całego zbioru danych. Tworzy pan ziarno informacji. Cały nasz sposób rozumowania, sposób postrzegania świata, sposób komunikacji bazuje bowiem nie na liczbach, ale na pojęciach bardziej ogólnych, abstrakcjach. Te pojęcia nie są niczym innym, jak ziarnami informacji.

Czym jest ziarno informacji?

Kolekcją elementów, które mają ze sobą coś wspólnego. Jeżeli mówimy o obrazie cyfrowym, to nie mówimy o milionach pikseli, tylko o obiektach, które się na tym obrazie znajdują.

O plamach.

Tak. Ale dlaczego jesteśmy w stanie to rozpoznać? Bo patrząc na obraz cyfrowy, zaczynamy zauważać, że niektóre piksele są bardzo blisko siebie, pod jakimś względem są do siebie podobne. Więc je łączymy. Ziarna informacji są tak powszechne, że tego nie zauważamy.

A liczby?

Nasz sposób rozumowania na nich się nie opiera. Ile razy w ciągu dnia wykorzystujemy liczby? Niewiele. Nawet jeżeli musimy je zapamiętać, mamy z nimi kłopot.

Dlaczego?

Bo nasz sposób pojmowania rzeczywistości nie jest związany z przetwarzaniem numerycznym.

Prof. Witold Pedrycz

Jeżeli uznajemy, że sztuczna inteligencja bazuje na symbolach, to musimy przyjąć, że te symbole gdzieś powstają. Czyli że są odzwierciedleniem rzeczywistości.

Skoro nasza percepcja jest oparta na abstrakcjach, byłoby dobrze, by komunikacja z inteligentnymi systemami odbywała się na naszych, ludzkich warunkach

Na czym polega wartość danych?

Na tym, że analizując je, jesteśmy w stanie podejmować decyzje. Innymi słowy, ta nasza analiza musi generować pewne wyniki, które nadają się do interpretacji.

Ziarna informacyjne są sposobem, w jaki postrzegamy świat?

Tak. Poziom abstrakcji naszego myślenia zawsze jest związany z problemem, który chcemy rozwiązać. Na przykład jeżeli interesuje mnie prognoza dla firmy na pięć lat, to poziom abstrakcji jest w tym przypadku zdecydowanie wyższy niż ten wymagany dla prognozy miesięcznej.

Dlaczego informatyka ma być „humanocentryczna”? Postulował pan to w swoim manifeście „Granular Computing for Data Analytics”.

Skoro nasza percepcja jest oparta na pojęciach abstrakcyjnych, byłoby dobrze, by komunikacja z inteligentnymi systemami odbywała się na naszych, ludzkich warunkach.

Dziś tak nie jest?

Do pewnego stopnia nie jest.

Maszyny narzucają nam sposób patrzenia na świat?

Oczywiście. W wielu przypadkach jest nam narzucany język danych numerycznych, język rezultatów, które budujemy w postaci liczb. Zastanawiał się pan kiedyś, dlaczego ludzie używają pojęcia zbiorów?

Bo pewne kawałki świata są do siebie podobne.

Zbiory są przykładami ziaren informacji. Zbiór jest pojęciem tak oczywistym, że już na to nie zwracamy uwagi. Pozwalają organizować naszą wiedzę, przetwarzać ją, komunikować spostrzeżenia i porozumiewać się z innymi.

Organizować wiedzę o rzeczywistości?

Tak jest. I orientować się w niej, organizować, mimo że ziarna informacji nie istnieją jako elementy fizyczne, nie można ich mierzyć, bo to nie jest prąd ani temperatura. To byty umowne.

Są jakieś inne niż zbiory przykłady ziaren informacji?

Owszem, prawdopodobieństwo. Dlaczego używamy funkcji prawdopodobieństw? Dlatego, że mając miliony danych, jesteśmy je w stanie opisać w sposób abstrakcyjny za pomocą kilku funkcji gęstości prawdopodobieństwa. Czyli zamiast dyskutować o milionach elementów, zamiast je wyszczególniać, znajduję wśród nich pewne regularności. To punkt centralny dziedziny Big Data, data analytics, co ma już bezpośredni związek ze sztuczną inteligencją. Mówiąc inaczej, ziarna informacji pozwalają formalizować symbole na potrzeby sztucznej inteligencji.

Wypowiadając się na temat granular computing, często zaznacza pan, że to „nowy paradygmat”. Paradygmat czego? Posługiwania się danymi w świecie nadmiaru wiedzy?

Należy rozróżnić pojęcia danych i wiedzy. Dane to nie wiedza, to punkt startowy dla generowania wiedzy. Ziarno informacji może być traktowane jako element wiedzy o problemie.

Czy granular computing jest nową dziedziną? A może to dziedzina, która bazuje na dokonaniach realizowanych przez setki lat? Teoria zbiorów jest kamieniem węgielnym matematyki, teoria prawdopodobieństwa ma setki lat historii. Teoria zbiorów rozmytych Zadeha to rok 1965, a teoria zbiorów przybliżonych profesora Zdzisława Pawlaka to lata 80. XX wieku. W tym sensie można powiedzieć, że granular computing bazuje na czymś, co było znane o dawna.

Czyli nic nowego?

O nie, bynajmniej! Jeżeli chodzi o konstrukcję, przetwarzanie i komunikowanie informacji, to nowa dziedzina.

Lotfi Zadeh, genialny amerykański automatyk, o którym pan wspomniał, stwierdził kiedyś, że dla naszego poznania najważniejsze są trzy pojęcia: granulacja, organizacja i przyczynowość. Granulacja jest procesem, który rozkłada wszechświat na części, organizacja integruje części we wszechświecie, a przyczynowość to kojarzenie przyczyn i skutków. Niemal biblijny opis roli człowieka w świecie, który porządkujemy sobie za sprawą trzech mechanizmów. Zgadza się pan z tym?

Profesor Zadeh wystąpił tu w roli wizjonera. Ja byłbym bardziej ostrożny, bo pojęcie przyczynowości ma charakter filozoficzny. To ciekawa obserwacja ogólna, ale pozostaje pytanie, jak przez tę obserwację przejść na poziom rozważań technicznych.

Zejdźmy na poziom życiowego konkretu, choćby problemu smogu w Polsce. Musimy szybko sobie z nim poradzić. Czy zastosowanie do tego logiki ziaren informacji zamiast logiki numerycznej będzie bardziej sensowne. Jeśli tak, to gdzie widać przewagę?

Ta przewaga jest widoczna na kilku poziomach. Po pierwsze, model granularny będzie generować odpowiedź w postaci ziarna informacji, czyli na przykład jakiegoś przedziału liczb, funkcji prawdopodobieństwa. Taka komunikacja jest znacznie pełniejsza niż komunikacja generowana przez model numeryczny, który tylko przedstawi wynik w postaci jednej wartości liczbowej.

Co będzie, gdy model numeryczny poda nam stężenie pyłu zawieszonego w jakimś mieście?

W rzeczywistości ono wcale nie będzie takie, jak wynikałoby z modelu. Bo prawdopodobieństwo trafienia w punkt jest równe zeru. Spójrzmy na prosty system prognozowania pogody: jeśli powiem, że jutro temperatura będzie wynosiła 24,7 stopnia, to prawdopodobnie ta prognoza okaże się błędna.

Natomiast jeśli powiem, że temperatura jutro będzie wynosiła około 25 stopni, to mój opis będzie bardziej pełny, a prawdopodobieństwo sprawdzenia się prognozy stanie się wyższe.
Zwykle nie mówimy: jutro przyjdę o godzinie 12:05. Powiem raczej, że będę około godziny 12:00. Czy to źle? Nie, bo iluzja dokładności jest bardzo niebezpieczna. Nasza obsesyjna wiara w precyzję jest szkodliwą iluzją.

Precyzja jest iluzją?

Oczywiście! Poziom skomplikowania systemów, wśród których żyjemy – czy to fizycznych, czy społecznego, czy innych – jest tak wysoki, że nie możemy w odniesieniu do nich stosować prognozowania na poziomie numerycznym.

W latach 50. budowaliśmy General Problem Solver – system, który miał rozwiązywać dowolny problem. Po kilku latach po angielsku się z tego pomysłu wycofano

I druga istotna sprawa. Gdy mam do czynienia z milionami danych w każdej dziedzinie, których na dodatek wciąż gwałtownie przybywa, to chcąc zbudować model dokonujący na ich podstawie prognozy czy opisujący zależności, nie mogę oczekiwać precyzji. Nie mogę postawić na dokładne liczby, bo nakład obliczeniowy, czyli liczba operacji do wykonania, będzie wtedy wyjątkowo wysoki.

Użycie kolekcji ziaren informacji, zapomnienie o indywidulanych danych pozwala budować modele łatwiejsze do przetwarzania. Po prostu zaczynam zapominać o indywidualnych danych, w ich miejsce budując taką kapsułkę, która te dane obejmuje. Nie interesuje mnie już, co jest w środku tej kapsułki, ale sama ta kapsułka, czyli ziarno informacji.

Jak zaprząc ziarna informacji do oceny mojej zdolności kredytowej?

Najpierw w formie tych ziaren próbujemy opisać klienta banku starającego się o kredyt, jego obecną sytuację i historię kredytową. Analizując np. dochód klienta, nie interesujemy się tylko tym, jaki on jest w aktualnym momencie, ale rozpatrujemy pewne związane z tym dane historyczne, próbując opisać te dane w postaci jednego agregatu, czyli ziarna informacji. Bazując na danych historycznych, mogę zbudować system prognozowania wypłacalności klienta, na podstawie którego mogę potem mówić o udzieleniu mu kredytu.

Jest pan sobie w stanie wyobrazić zastosowanie takiego systemu do werbowaniu czy przyjmowania ludzi do pracy?

Tak, o ile będziemy pamiętać, że to są systemy wspomagania, a nie systemy decyzyjne. System wspomagania jedynie podaje wynik prognozy czy preferencje dotyczące kandydata człowiekowi, który podejmuje ostateczną decyzję.

I to jest ten wentyl bezpieczeństwa, gwarancja, że technologia będzie humanocentryczna?

To wentyl o znaczeniu krytycznym. Bo często głęboko wierzymy, że jeżeli komputer wygeneruje nam jakąś wartość liczbową, to jest to ta jedyna wartość istotna dla rozwiązania problemu. Że jest dokładnie tak, jak wskazał komputer – i kropka. A to nieprawda, rzeczywistość składa się z półcieni, różnych odmian szarości.

W dyskusjach na temat tzw. silnej sztucznej inteligencji, czyli tej, która byłaby zdolna myśleć na ludzkim poziomie abstrakcji i zastępować nas w najbardziej złożonych działaniach, często wybrzmiewa obawa, że osiągnąwszy ten poziom, SI zechce nas wyeliminować. Pan też się tego obawia?

Nie jestem zwolennikiem takich teorii, całego tego czarnowidztwa. Nie wierzę, że maszyny będą współzawodniczyć z człowiekiem jako zupełnie niezależne byty. Znacznie bardziej niebezpieczne i realne jest niewłaściwe wykorzystanie metod sztucznej inteligencji w systemach militarnych. Technologia dronów, wzbogacona o SI na poziomie interpretacji obrazów, rzeczywiście może stanowić bezpośrednie zagrożenie dla człowieka.

Bo na końcu systemu kontroli, przy ostatnim monitorze może siedzieć człowiek o złych intencjach?

Tak, to po pierwsze. A po drugie, nigdy nie zbudujemy systemu, który byłby wolny od błędów.

Czyli bardziej obawia się pan niedoskonałej sztucznej inteligencji niż tej perfekcyjnej i wrogiej?

Po prostu nie demonizujmy. Największe niebezpieczeństwo wiąże się z tym, że sztuczna inteligencja jest realizacją pewnego software’u. Jeśli ten software zostanie źle opracowany, zapisanych w nim błędów może się nie udać wyeliminować. Szczególnie gdy system będzie bardziej złożony.

co z tzw. problemem czarnej skrzynki: że będziemy rozumieli rezultaty działań SI, ale samych tych działań być może już nie?

Nie sądzę, by coś takiego było dziś realne, nie na obecnym poziomie technologii. Zgoda, złożoność systemów nieustannie wzrasta, co skutkuje błędami mogącymi powodować dziwne, niezgodne z wymaganiami zachowania systemu. Ale trudno tu oczekiwać, że powstanie system zdolny tak ewoluować, by zaistniały w nim jakieś niekontrolowane czy złe intencje.

Sądzi pan, że silna sztuczna inteligencja jest w ogóle możliwa?

Już to kiedyś przerabialiśmy. W latach 50., gdy budowaliśmy General Problem Solver – system, który miał rozwiązywać dowolny problem. Po kilku latach po angielsku się z tego pomysłu wycofano. Usłyszeliśmy, że owszem, coś takiego byłoby możliwe, ale na razie zasoby obliczeniowe są za małe. Dziś kwestia zasobów obliczeniowych powraca.

Pierwsza przymiarka do stworzenia boga nam nie wyszła.

Nie wyszła. Odnoszę wrażenie, że dziś mamy do czynienia z reinkarnacją tamtej idei. Choć oczywiście łatwo się pomylić w takich prognozach. W mojej opinii w najbliższych latach czegoś takiego jak silna sztuczna inteligencja raczej nie zobaczymy.

A co zobaczymy?

Po prostu coraz bardziej niezawodną, lepszą technologię.


*Witold Pedryczprofesor w Kanadyjskiej Katedrze Badań (CRC) o profilu Inteligencja Komputerowa na Uniwersytecie Prowincji Alberta i pracownik naukowy Ośrodka Przetwarzania Informacji – Państwowego Instytutu Badawczego w Warszawie. W 2009 roku wybrany na członka zagranicznego PAN. Specjalizuje się m.in. w inteligencji komputerowej, modelowaniu rozmytym, granular computing, obróbce danych, rozpoznawaniu obrazów i sieciach neuronowych. Autor licznych prac naukowych z tych dziedzin, książek oraz monografii obejmujących różne aspekty inteligencji komputerowej i inżynierii oprogramowania. W roku 2008 został odznaczony Medalem Inżynierii Komputerowej przez IEEE – Kanada. W 2009 r. Europejskie Centrum Obliczeń Programowanych przyznało mu Nagrodę Cajastura za pionierski i wielostronny wkład do dziedziny granular computing.