Żyjemy w świecie sztucznej inteligencji, nie zdając sobie nawet sprawy ze skali jej wszechobecności. A będzie jej jeszcze więcej – pisze Marek Kozłowski* z OPI PIB

Za sprawą głębokich sieci neuronowych oraz coraz lepszego sprzętu modele przetwarzania obrazów czy języka naturalnego, rozpoznawania mowy czy rekomendacji stają się coraz doskonalsze. To z kolei powoduje, że pojęcie „sztuczna inteligencja” (SI) robi w ostatnim czasie wręcz zawrotną karierę. Żyjemy w świecie sztucznej inteligencji, nie zdając sobie nawet sprawy ze skali jej wszechobecności.

Apple, Google, Microsoft to tylko kilka przykładów wielkich firm wykorzystujących technologie głębokiego uczenia do rozpoznawania mowy. Serwisy Amazon i Netflix spopularyzowały zastosowanie systemów rekomendacji, które pozwalają z dużym prawdopodobieństwem rekomendować zakupy czy wybór filmu/serialu, bazując na naszych poprzednich zachowaniach i wyborach. Jednym z praktycznych zastosowań rozpoznawania obrazów jest automatyczne opisywanie zdjęć i scen (np. na Facebooku).

To tylko garść przykładów demonstrujących, jak szeroko metody SI są dziś aplikowane przez gigantów rynku komercyjnego. Co jednak stoi za siłą tych metod? W czym kryje się magia sztucznej inteligencji? I czego nowego możemy się po niej spodziewać w najbliższym czasie?

Oto dziesięć najważniejszych trendów, które – jak sądzę – wytyczą kierunek rozwoju sztucznej inteligencji w nadchodzącym 2020 roku:

1) Explainable SI – sztuczna inteligencja, którą zrozumiesz

Jako że sieci neuronowe mają strukturę wielowarstwowych transformacji nieliniowych, człowiekowi trudno zrozumieć, jakie właściwości decydują o ostatecznej klasyfikacji/predykcji.
Wszystko, co wymaga wnioskowania, jest poza zasięgiem modeli głębokiego uczenia – bez względu na to, jak duży zbiór uczący przygotujemy. Głębokie sieci neuronowe są jedynie bardzo dobrymi lokalnymi generalizatorami.

Umiejętność przystosowywania się do nowych sytuacji z wykorzystaniem bardzo małej ilości danych François Chollet nazywa „ekstremalnym uogólnieniem”. Ekstremalne uogólnienie (Extreme Generalization), oparte na abstrakcji i wnioskowaniu, to przeciwieństwo lokalnego uogólnienia (Local Generalization), opartego na wzorcach odkrytych.

Mimo postępów w dziedzinie SI wciąż jesteśmy bardzo daleko od tzw. silnej SI, tej podobnej do ludzkiej. Nasze modele mogą przeprowadzać tylko lokalne uogólnienia, dostosowując się do nowych sytuacji, które muszą być bardzo podobne do przeszłych. Tymczasem ludzka inteligencja szybko adaptuje się do nieznanych sytuacji i potrafi planować długoterminowo.

To rodzi szereg problemów. Bo jeśli mamy modele dobrze działające lokalnie, ale ich budowa czyni je dla nas niezrozumiałymi, to jak można je stosować w tak wrażliwych dziedzinach, jak zdrowie, bezpieczeństwo czy finanse?

Szacuje się, że wraz ze wzrostem zastosowań SI w organizacjach co najmniej 30 procent zastosowań w publicznych i komercyjnych spółkach będzie wymagało wykorzystania/stworzenia narzędzi tłumaczących działanie zastosowanych modeli SI. Rozwijanie metod tłumaczących modele głębokiego uczenia będzie jednym z najsilniejszych trendów w 2020 roku.

2) Rewolucja Elona Muska przyspieszy

Pojazdy autonomiczne to samojezdne urządzenia sterowane przez komputer pokładowy. Same potrafią wykrywać przeszkody i poruszać się po drogach bez udziału człowieka. Samochody bezzałogowe używają technik typu radary, GPS, kamery, systemy SI do nawigacji i omijania przeszkód, unikania kolizji czy zarządzania awaryjnymi sytuacjami na drodze.

W przyszłości obok klasycznych autonomicznych aut pojawią się autonomiczne ciężarówki, drony, statki i pociągi.

Elon Musk prezentuje najnowsze dzieło Tesli – Cybertruck (21 listopada 2019, Hawthorne). Na razie to auto „tylko” elektryczne; czy za jakiś czas będzie także autonomiczne?

Tworzenia coraz bardziej inteligentnych systemów wspomagających kierowcę i rozwój elektromobilności nie da się powstrzymać. Z każdym rokiem będzie coraz więcej „elektryków”, hydryd i modeli SI na pokładach pojazdów.

Do 2022 roku w związku ze zmianami związanymi z produkcją pojazdów autonomicznych i elektrycznych koncern Daimler zamierza zwolnić 10 tysięcy pracowników. Podobne informacje płyną z innych firm motoryzacyjnych. Rewolucja Elona Muska przyspiesza.

3) SI w bezpieczeństwie: ataki i fake newsy

Ataki na modele SI poprzez zaburzanie zbiorów treningowych danych czy samego wnioskowania – których jest i będzie coraz więcej – są możliwe, bo modele uczenia maszynowego, w tym sieci neuronowe, nie rozumieją swoich danych „na ludzki sposób”. Brakuje im sensomotoryczności, by mogły postrzegać dane w sposób umożliwiający ich krytyczną analizę. A dzięki temu można nauczyć te modele niewłaściwych zachowań, pokazując im niewłaściwe przykłady.

Wykorzystanie SI do lepszego monitorowania zagrożeń w sieci czy w samych aplikacjach staje się niezbędne. I jest możliwie dzięki zbieraniu coraz większej ilości informacji w dziennikach urządzeń czy logach serwisów.

Mówiąc o zastosowaniach SI w dziedzinie bezpieczeństwa warto też zwrócić uwagę na problem fake newsów.

Platformami do ich rozprzestrzeniania stały się m.in. Facebook i Twitter. Po amerykańskich wyborach prezydenckich w 2016 roku Facebook zaczął oznaczać niewiarygodne wiadomości i ostrzegać przed nimi użytkowników.

Pamiętajmy jednak, że za większość dotychczasowych fake newsów odpowiadali ludzie – trolle.

Od dwóch lat widać wzrost zainteresowania zastępowaniem trolli narzędziami wzbogaconymi o SI, które same generowałyby i rozpowszechniały fake newsy przy użyciu fikcyjnych kont. W związku z tym mamy do czynienia z dwiema domenami sztucznej inteligencji: autogenerowaniem fake newsów metodami SI oraz wykrywaniem ich metodami SI. W najbliższych dwóch latach obie te dziedziny będą intensywnie rozwijane. Nadchodzi czas, gdy SI stanie się jednocześnie narzędziem wspierającym policjanta i złodzieja.

4) SI a sztuka konwersacji

Większość zadań z tej dziedziny dotyczy wirtualnych asystentów, czyli tzw. chatbotów.

To programy, których zadaniem jest prowadzenie inteligentnej konwersacji przy użyciu języka naturalnego bądź interfejsu głosowego. Używa się ich na stronach internetowych do komunikacji z użytkownikami. Najczęściej chatbot obsługuje wąski obszar, na przykład rezerwuje bilet, zamawia pizzę czy informuje o rachunkach.

Rok 2020 będzie czasem dalszego rozwoju wirtualnych konsultantów. Nastąpi też znaczny wzrost zainteresowania metodami zapytań semantycznych jako sposobem formułowania analitycznych zapytań dotyczących różnorodnych źródeł danych, które zawierają dane strukturalne i nieustrukturyzowane. W ramach projektu ZSUN1 w Ośrodku Przetwarzania Informacji – Państwowym Instytucie Badawczym, gdzie pracuję, powstały analityczne narzędzia w rodzaju semantycznej wyszukiwarki i wirtualny konsultant dla obsługi procesów konkursowych.

W 2020 roku wzrośnie też zainteresowanie biznesu narzędziami analitycznymi pozwalającymi formułować zapytania w sposób bliski naturalnemu i prezentującymi wyniki w sposób różnorodny, z użyciem wielu wizualizacji.

5) Rozwój infrastruktury SI

Głębokie sieci neuronowe to wielowarstwowe struktury oparte często na setkach milionów parametrów i milionach neuronów. Złożoność modeli sieciowych rośnie wraz ze wzrostem liczby warstw oraz danych niezbędnych do uczenia modeli. Rozwiązania oparte na deep learningu wymagają wielkiej mocy obliczeniowej, szczególnie do uczenia takich modeli. Do efektywnego uczenia głębokich sieci wymagana jest specjalna architektura jednostek obliczeniowych, jaką dysponują na przykład karty GPU.

Wykładniczy wzrost zastosowań nowych metod SI będzie odgrywał coraz większą rolę w przyszłych inwestycjach w infrastrukturę IT. Rewolucja SI wymaga specjalistycznych urządzeń w serwerowniach, w szczególności klastrów kart graficznych, co wcześniej było domeną tylko firm z branży animacji czy filmu.

Według Gartnera do 2023 roku SI będzie jednym z głównych czynników wpływających na decyzje dotyczące infrastruktury. SI wymaga specjalistycznego zestawu urządzeń oraz ich konfiguracji, a także dedykowanych zespołów, które mogą stale utrzymywać w ruchu narzędzia bazujące na modelach SI.

Infrastruktura SI jest kluczowa. Dziś zbiór około miliona obrazków to nie jest big data, a wymaga użycia kilku wysokiej jakości kart GPU, po co najmniej kilka tysięcy rdzeni każda, by można było w rozsądnym czasie zbudować równolegle kilka modeli i dobrać najlepsze rozwiązania dla klasyfikacji obrazów czy detekcji obiektów.

Jeśli chcesz efektywnie budować i stosować obecnie popularne modele SI, musisz albo kupić serwery z kartami GPU, albo je wydzierżawić.

6) Transfer Learning: gdy za mało danych

Aby zbudować dobry model głębokich sieci neuronowych, musisz dysponować możliwie największym i najlepszym zbiorem danych. Tyle że jeśli nie jesteś Google’em, Facebookiem, Microsoftem albo Amazonem, to zwykle nie masz szans na taki zbiór. Dlatego problem pozyskiwania, generowania lub minimalizowania potrzeby danych dla modeli głębokiego uczenia będzie kluczowy dla rozwoju sztucznej inteligencji w 2020 roku.

Co jednak począć, gdy nie mam dostępu do dużych zbiorów danych? Rozwiązaniem może być Transfer Learning (transfer uczenia). Polega on na przechowywaniu wiedzy zdobytej podczas rozwiązywania jednego problemu i zastosowaniu jej do innego, pokrewnego problemu. Na przykład wiedza zdobyta podczas nauki rozpoznawania aut osobowych może mieć zastosowanie w rozpoznawaniu ciężarówek.

W przypadku transferu uczenia część wyuczonej wcześniej sieci neuronowej zostaje „zagnieżdżona” w docelowym modelu sieci neuronowej. Pozwala to na wzbogacenie modelu wiedzą niezawartą w treningowym zbiorze danych, którym dysponujemy. Obie sieci są szkolone na różnych zestawach danych, więc można połączyć ogólną wiedzę z dużego zestawu danych z wiedzą specyficzną dla zadania z mniejszego zbioru danych.

7) Klasyczne uczenie maszynowe, czyli powrót do zdrowego rozsądku

Gwałtowna poprawa wyników predykcji z użyciem metod opartych na głębokich sieciach neuronowych spowodowała, że sieci tych zaczęto używać tam, gdzie jest niewiele nisko wymiarowych danych. Prowadziło to często do gorszych wyników niż te, które można by uzyskać metodami statystycznymi czy probabilistycznymi.

Dostrzegłszy ten problem, analitycy z Gartnera uznali, że klasyczne metody uczenia maszynowego będą nadal odgrywać ważną rolę, choć trwa moda na głębokie modele uczenia. Według Gartnera do 2022 roku ponad trzy czwarte organizacji będzie korzystało z głębokich sieci neuronowych do zadań, w których wystarczyłyby klasyczne metody uczenia maszynowego (na przykład oparte na drzewach decyzyjnych czy modelach probabilistycznych).

W najbliższych latach firmy zostaną zmuszone do lepszej inwentaryzacji swoich zasobów danych, oceny ich wiarygodności oraz monetyzacji – i ten sam proces będzie musiał być zrealizowany w zakresie modeli uczenia maszynowego. Organizacje powinny więc uprościć stosowane procesy i metody, jeśli porównywalne wyniki będzie można osiągnąć mniejszym kosztem.

8) Nowa era predykcji nastrojów i poparcia

Stosując SI, można dziś identyfikować spójne grupy użytkowników, którzy tworzą treści wywołujące negatywne emocje wobec partii politycznych czy zjawisk społecznych. Nazywamy to identyfikowaniem przeciwników.

Otwarcie urn w lokalu wyborczym we Wrocławiu, 2019 r.

Na przykład twardy elektorat PO-Lewicy najlepiej zidentyfikować po niechęci do PiS – i na odwrót. Dysponując wiedzą o mowie nienawiści (słowa klucze o wysokiej dawce emocji), możemy poprosić SI o znalezienie podobnych semantycznie słów (występujących w podobnych kontekstach). Mając taki zbiór finalnych słów o wysokim ładunku emocji, można zidentyfikować autorów i ich wszystkie teksty, co z kolei można potraktować jako zbiór uczący dla kolejnych modeli uczenia maszynowego. Ostatecznie, dysponując klasyfikatorem orientacji, można nadać etykiety wszystkim nowym komentarzom i na tej podstawie szacować poparcie. Łącząc to wszystko z wzorcami czasowymi, uzyskujemy zestaw narzędzi do przeprowadzania sondaży opinii publicznej z wykorzystaniem publicznych danych internetowych. W OPI PIB udowodniliśmy, że taka metodologia przynosi bardzo podobne wyniki jak klasyczne podejścia stosowane przez główne instytuty badań opinii publicznej.

Naszym zdaniem takie narzędzia analizy pasywnej, wzbogacone metodami SI, to przyszłość sondaży poparcia i nastrojów społecznych czy sondaży pracowniczych w mikroskali.

9) Platformy LC/NC – żeby się nie martwić, skąd wziąć programistę

W Europie brakuje już około miliona programistów, a w Polsce około 50-70 tysięcy. I z każdym rokiem ta luka się powiększa.

Co nam zatem zostaje? Uruchomić procesy prowadzące do zmniejszeniu popytu na programistów. To możliwie pod warunkiem opracowania inteligentnych platform do elastycznego budowania aplikacji. Mają nimi być tzw. platformy low-code lub no-code (LC/NC), reprezentujące wizualne podejście do tworzenia aplikacji. Z naciskiem na minimalizację udziału lub brak udziału programistów w zmianie kodu źródłowego.

Platforma programistyczna LC/NC to zintegrowane wizualnie środowisko programistyczne, które umożliwia przeciąganie i upuszczanie komponentów aplikacji, łączenie ich ze sobą, przekazywanie informacji między nimi – a tym samym tworzenie aplikacji mobilnych lub internetowych. Takie modułowe podejście pozwala analitykom, pracownikom biurowym i innym osobom, które nie są klasycznymi programistami, na szybkie tworzenie i testowanie aplikacji. Co ważne, platformy te pozwalają wydajnie automatyzować niektóre powtarzające się, dobrze zdefiniowane procesy. Procesy bardziej wyrafinowane czy specyficzne integracje nadal będą wymagać udziału programisty.

Analitycy z Forrester Research prognozują, że w 2020 roku rynek platform LC/NC osiągnie wartość 15 mld dolarów.

10) SI na kryzys gospodarczy

W czerwcu Bank Światowy opublikował raport „Globalne perspektywy gospodarcze. Zwiększone napięcia, ograniczone inwestycje”, w którym ostrzegł przed słabym wzrostem inwestycji na rynkach wschodzących i rosnącym ryzykiem spowolnienia globalnego na skutek nasilających się napięć handlowych. Na jesieni 2019 roku kolejne instytucje finansowe cięły prognozy wzrostu globalnego. Nadchodzący kryzys Polska odczuje prawdopodobnie bardziej niż poprzedni, ten z lat 2008-2009.

Dotychczas opracowano szereg metod analizy, które miały wskazać, w co warto inwestować, a w co nie. Jednak w tych modelach mało było metod SI, konsumujących dane nieustrukturyzowane, jak obrazy czy tekst. Większość analiz oparta była na danych stricte finansowych i na związanych z nimi wskaźnikach.

Nadchodzi jednak czas, gdy będzie już można wykorzystać ogrom danych nieustrukturyzowanych pochodzących z mediów społecznościowych, ze stron internetowych przedsiębiorstw czy z raportów agencji, by wspomóc standardowe modele rekomendacji aktywów. W najbliższych latach, by lepiej przewidywać kryzysy gospodarcze, w coraz większym stopniu trzeba będzie korzystać ze sztucznej inteligencji.


*Autor jest doktorem informatyki, kierownikiem Laboratorium Inżynierii Lingwistycznej w Ośrodku Przetwarzania Informacji – Państwowym Instytucie Badawczym w Warszawie, gdzie prowadzi 40-osobowy zespół badaczy i programistów zajmujący się tworzeniem oprogramowania wzbogaconego inteligentnymi metodami przetwarzania danych. Napisał ponad 30 publikacji naukowych z zakresu semantycznego przetwarzania tekstów i uczenia maszynowego.

OPI PIB – Ośrodek Przetwarzania Informacji – Państwowy Instytut Badawczy jest wydawcą portalu Sztuczna Inteligencja