Nauczone na przykładach naszych zachowań z ubiegłych lat, sieci neuronowe nie wiedzą, co teraz począć. Ale może im to wyjść na dobre

Sztuczna inteligencja to element naszego codziennego życia. Na przykład wielu internetowych sklepów. To algorytmy uczenia maszynowego zbierają informacje o naszych zakupach i analizują, jakie produkty kupowane są najczęściej razem. Potem mogą podsuwać nam propozycje – to te, przy których znajdziemy słowa „inni kupili też” albo „dopasowane do ciebie”.

Sęk w tym, że tego wszystkiego nauczyły się jeszcze przed wybuchem pandemii. Na Amazonie, największej platformie sprzedaży internetowej, królowały wtedy ochronne etui do smartfonów, ładowarki i klocki lego. Teraz najczęściej sprzedają się ochronne maski, jednorazowe rękawiczki i płyny do dezynfekcji. Algorytmy stały się bezradne. I mało przydatne.

Problem nie dotyczy tylko algorytmów wspomagających sprzedaż. Systemy sztucznej inteligencji stosuje się też w logistyce do zarządzania towarami w magazynach, czy w bankach do wykrywania podejrzanych transakcji. Wreszcie służą też do tworzenia treści w marketingu i reklamie.

Oczywiście, algorytmy uczenia maszynowego – jak sama nazwa wskazuje – mogą się uczyć. I uczą, tyle że wymaga to milionów przykładów. Tymczasem pandemia zmieniła nasze przyzwyczajenia niemal z dnia na dzień. Zanim algorytmy nauczą się naszych nowych nawyków, minie sporo czasu.

Podejrzliwe banki

Czy zdarzyło się wam, że podczas zakupów w osiedlowym sklepie musieliście podać PIN, mimo że transakcja była na kwotę pozwalającą na płatność zbliżeniową? Jeśli tak, to być może wina sztucznej inteligencji. Jeszcze kilka tygodni temu robiliście zakupy raz w tygodniu w supermarkecie, teraz robicie w małym sklepie raz na dwa dni. Bank – a raczej system, którego używa – chce się upewnić, że to naprawdę wy i nikt waszej karty nie ukradł.

Czujność bankowych algorytmów jest na miejscu. Zarówno Interpol, jak i Europol ostrzegają przed wzrostem aktywności przestępców, wykorzystujących pandemię. Potwierdza to także w wypowiedzi dla „Fortune” Ajay Bhalla szef działu cyberbezpieczeństwa Mastercardu, jednego z największych wystawców kart płatniczych i kredytowych – aktywność finansowych cyberprzestępców wzrosła.

Z kolei Michal Pechoucek z zajmującej się cyberbezpieczeństwem firmy Avast mówi, że to spore wyzwanie dla algorytmów. Sieć wyuczona na przykładach sprzed epidemii może nie rozpoznawać obecnej aktywności użytkowników i wzbudzać zbyt wiele alarmów – wtedy taki system zwykle jest wyłączany. Można też zmienić parametry systemu, żeby nie podnosił alarmów zbyt często – ale to pozwala prześlizgnąć się większej liczbie oszustów lub cyberataków.

Zapytaliśmy PKO BP, jak pandemia koronawirusa zmieniła nasze nawyki – i w jakim stopniu wpłynęło to na systemy oparte na uczeniu maszynowym. Czy zmiana zachowań Polaków jakoś się na nich odbiła?

Kamil Konikiewicz, dyrektor Biura Rozwoju Sztucznej Inteligencji w PKO BP odpisał nam: „Pojawienie się koronawirusa z pewnością zwiększa wagę prac w już uruchomionych projektach wykorzystujących sztuczną inteligencję i uczenie maszynowe. Bank upatruje w tych technologiach szansę na masowe usprawnienie i automatyzację procesów obsługi klienta, ale też uruchomienie nowego mechanizmu komunikacji – np. w aplikacji IKO czy innych kanałach cyfrowych.”

„Dla banku jest to szansa na redukcję skali powtarzalnych i odtwórczych prac wykonywanych przez jego pracowników. Jednym z przykładów projektów realizowanych przez bank w kontekście COVID-19, jest wdrożenie tematycznego bota głosowego (tzw. korona-bot) na naszej infolinii. Jego zadaniem jest udzielanie klientom PKO Banku Polskiego informacji na temat funkcjonowania naszej instytucji w okresie pandemii. Zakres tematyczny obejmuje kilkanaście zagadnień – m.in. wakacji kredytowych, bezpieczeństwa placówek czy godzin realizacji przelewów. Bot działa od blisko 2 miesięcy i swoim działaniem pomógł tysiącom klientów banku, jednocześnie zmniejszając obciążenie Call Center w tym trudnym okresie.”

Zakupy na (ręczną) miarę

Największy sprzedawca w Stanach Zjednoczonych, Amazon, jak wiele innych internetowych sklepów wykorzystuje sztuczną inteligencję do podpowiadania klientom towarów. To znane wszystkim „inni kupili także” albo „może cię również zainteresować”. Sieci neuronowe Amazona, jak opisuje MIT Tech Review, promowały zwykle sprzedawców, którzy korzystali z infrastruktury giganta – wysyłali towar do jego magazynów, a firma zajmowała się ich dystrybucją.

Algorytmy Amazona częściej podsuwały więc klientom towary dostawców, którzy korzystają z jego infrastruktury. Ale przy nawale zamówień maseczek i płynów do dezynfekcji obciążenie okazało się zbyt duże. Amazon zmienił więc systemy automatycznych rekomendacji, by promowały tych sprzedawców, którzy sami zajmują się wysyłką.

Allegro, największy polski serwis zakupowy, nie odpowiedział nam na pytanie, czy jego algorytmy po wybuchu pandemii trzeba było zmieniać.

W reklamie cena nieważna

Jak opisywała to na naszym portalu Karolina Iwańska z Fundacji Panoptykon, gdy czekamy na załadowanie się strony internetowej, informacje o nas (zebrane przez przeglądarkę) natychmiast trafiają na giełdę reklam, gdzie reklamodawcy się licytują – o nasze względy. Strona, którą załadowaliśmy, wyświetli nam reklamę tej firmy, która zaoferowała drugą najwyższą stawkę (drugą, bo taki mechanizm zniechęca do windowania stawek). To „licytacje w czasie rzeczywistym” (real-time bidding).

Model taki ma swoje zalety. Podsuwa nam reklamy związane z naszymi zainteresowaniami i jeśli szukamy dziecięcych ubranek może nam je zareklamować (zamiast na przykład traktorów).

Jednak gdy wszyscy zaczęli kupować z grubsza to samo (maseczki, rękawiczki, środki do dezynfekcji), taki model stał się mało przydatny. Zwłaszcza, że szybko okazało się, że podstawowym parametrem, jaki interesuje kupujących towary jest teraz szybkość dostawy raczej niż na przykład cena.

Nozzle, firma opisywana przez MIT Tech Review, doradza teraz klientom, którzy chcą poprawić swoje algorytmy. Na przykład jeśli wiesz, że nie będziesz w stanie dostarczyć towaru szybciej niż konkurencja, nie ma sensu licytować się z nią na stawki w reklamowej licytacji. Z kolei jeśli wiesz, że magazyny konkurentów są puste, a ty szczęśliwie masz pożądany towar, możesz zaproponować niższe stawki. Tego (terminów dostaw konkurencji, twoich zapasów i konkurencji) algorytmy jednak nie przewidzą – powstały by sterować na podstawie innego parametru (ceny).

Ponury język epidemii

To, co publikujemy w internecie jest też inne, niż przed wybuchem epidemii. W osobistych postach częściej wyrażamy niepokój, rozdrażnienie czy smutek. Media pełne są doniesień o kolejnych przypadkach zakażeń, zgonów, trudnej sytuacji w szpitalach. Jeśli ktoś wykorzystuje internet, na przykład do tego, żeby uczyć maszyny rozpoznawania emocji (sentiment analysis) – to ma spory problem, bo jego algorytmy trafiły nagle w dość ponury świat.

To o tyle ważne, że istnieją już algorytmy rozpoznające nastroje, żeby móc diagnozować zagrożenie chorobą albo hospitalizację.

Algorytmy opracowane przez programistów z Laboratorium Inżynierii Lingwistycznej OPI PIB (który jest wydawcą naszego portalu) przewidziały wynik poprzednich wyborów parlamentarnych – właśnie dzięki temu, że nauczyły się rozpoznawać w internetowych komentarzach emocje.

Czy teraz też by im się to udało? Mówi Antoni Sobkowicz z Laboratorium Inżynierii Lingwistycznej OPI PIB: W przypadku spolaryzowanych systemów politycznych – takich jak USA czy Polska – wszystkie działania rządzących odbierane są także przez pryzmat „popieram rządzących” lub „nie zgadzam się z nimi” i widać to także w komentarzach na forach internetowych. Pytanie jednak czy wpływa to na analizy – i na jej jakość – jest trudne. Wszystkie badania w takim okresie są niepewne, obarczone błędem spowodowanym emocjami. Odpowiedź może dać jedynie przeprowadzenie rzeczywistego procesu wyborczego oraz porównanie z metodyką.

„Impuls dla lepszych modeli”

Pandemia i to, że firmy musiały uciec się do ręcznego poprawiania niektórych parametrów wykorzystywanych sieci neuronowych, to doskonała nauczka, że świat jest nieprzewidywalny. Zawsze może wydarzyć się coś, co sprawi, że systemy sztucznej inteligencji będą wymagać ludzkiej kontroli. Nie można zaprojektować systemu opartego na SI i uznać, że będzie zawsze działał poprawnie.

Rajeev Sharma, wiceprezes Pactera Edge, firmy zajmującej się doradztwem w zakresie SI, komentuje, że sieci neuronowe powinno się trenować nie tylko na przykładach z ostatnich lat. Jeśli w ich uczeniu uwzględni się dane z Wielkiego Kryzysu lat trzydziestych ubiegłego wieku, krachu finansowego z lat 2008-2009, może im to tylko pomóc. „Pandemia taka jak ta jest świetnym impulsem do budowy lepszych modeli uczenia maszynowego” – mówi.

Zapewne ma rację. Jak mawia powiedzenie, nawet najlepszy algorytm uczenia maszynowego jest tylko tak dobry, jak dane, na których został wytrenowany. Nowe okoliczności zawsze wymagają nowych danych.