- Przyszłość sztucznej inteligencji to m.in. systemy, które potrafią rozmawiać z ludźmi
- Człowiek woli rozmawiać z tekstowym chatbotem niż z awatarem
- Chatboty przyszłości będą nawiązywać z ludźmi emocjonalne relacje i wyciągać wnioski
„Rozpoczęła się już faza sztucznej inteligencji masowo przekształcającej społeczeństwo, gospodarkę i politykę” – pisze dr Aleksandra Przegalińska z Akademii Leona Koźmińskiego we wstępie do opinii dotyczącej stanu i przyszłości SI przedłożonej Parlamentowi Europejskiemu. Przygotowała ją na wniosek Komisji Rynku Wewnętrznego i Ochrony Konsumentów europarlamentu.
W tej chwili w rozwoju SI najsilniejszych jest kilka istotnych tendencji.
Dokument wylicza m.in.: analizę poznawczą opartą na uczeniu maszynowym, gdzie maszyny bazują na doświadczeniu i budują świadomość kontekstową; poza tym postęp w dziedzinie internetu rzeczy (IoT), czujników i technologii ubieralnych, inteligentnych obiektów i środowisk (czyli miejsc niezauważalnie nasyconych technologią); rozwój chipów „skrojonych” pod SI; przetwarzanie w procesie głębokiego uczenia danych tekstowych, mowy czy obrazów; oraz inteligentną automatyzację pracy.
Najwięcej miejsca poświęcono jednak postępowi w rozwoju chatbotów i wirtualnych agentów (czyli systemów, które potrafią rozmawiać z ludźmi).
Od Elizy po Sophię
„Do 2020 roku ludzie będą prowadzić więcej rozmów z chatbotami niż z małżonkami” – twierdzi Christi Olson, ekspertka od chatbotów platformy Bing, powołując się na przewidywania wiodącej firmy badawczo-doradczej Gartner. Tę opinię przytacza w swoim dokumencie Przegalińska.
Te systemy wiodą prym w innowacjach i przyszłym rozwoju sztucznej inteligencji. Są już wszędzie. Nie tylko chatują. Śledzą aktywność użytkowników internetu i rozpowszechniają w nim informacje. Wykorzystują media chatowe, serwisy społecznościowe, wiadomości SMS lub okna do chatowania na stronach internetowych. Są klasyfikowane jako humanoidalna SI, podobnie jak roboty, które naśladują pewne ludzkie czynności.
Chatboty potrafią szybko zmieniać „poglądy”, deklarując różne stanowiska w krótkiej rozmowie, byleby dopasować się do rozmówcy
Pierwsza była ELIZA, bot stworzony w 1966 roku przez prof. Josepha Weizenbauma, niemieckiego informatyka z Massachusetts Institute of Technology (MIT). Symulowała ludzką mowę i „udawała” psychoanalityka. Eksperyment był wcieleniem idei tzw. testu Turinga, sprawdzającego umiejętność maszyny porozumiewania się językiem naturalnym i pośrednio mającego być dowodem na jej zdolność do myślenia w ludzki sposób.
Współczesne boty oparte na głębokim uczeniu są ledwo rozpoznawalne jako maszyny, przynajmniej w krótszych rozmowach (a biorą już też udział w poważnych debatach na tematy społeczne, jak w projekcie Debater firmy IBM).
Typowy humanoid wyposażony jest w system uczenia maszynowego, przetwarzania obrazów i rozpoznawania twarzy. Chatboty i roboty społeczne mogą naśladować ludzkie gesty, a nawet mimikę.
Najlepszy przykład robota humanoidalnego to słynna Sophia stworzona przez Hanson Robotics, randkująca z gwiazdą Hollywood Willem Smithem, oficjalnie obywatelka Arabii Saudyjskiej. Staje się coraz mądrzejsza z upływem czasu, ale na poziomie używania języka naturalnego Sophia nie jest niczym innym, jak właśnie chatbotem.
Chatbot w dolinie
Myśląc o naszym życiu z robotami, musimy brać pod uwagę tzw. efekt „uncanny valley” (dolina niesamowitości). To termin stosowany w hipotezie naukowej, zgodnie z którą robot, rysunek lub animacja komputerowa wyglądające bądź funkcjonujące podobnie (lecz nie identycznie) jak człowiek, wywołują u obserwatorów nieprzyjemne odczucia, a nawet odrazę. Innymi słowy – robot wyglądający „jak robot” (np. filmowy R2D2 z „Gwiezdnych wojen” czy prawdziwy amerykański Atlas), którego twórcy nie chcieli za wszelką cenę upodabniać do człowieka, nie wzbudzi niechęci. Za to do pokrytej sztuczną skórą maszyny imitującej ludzką postać podejdziemy z rezerwą.
Dr Przegalińska wraz z dr. Leonem Ciechanowskim i dr. Michałem Magnuskim (Uniwersytet Humanistycznospołeczny SWPS) oraz prof. Peterem Gloorem z Centrum Inteligencji Zbiorowej MIT zbadali ten efekt, biorąc na celownik chatboty.
Kwestionariusze psychologiczne skupiające się na interakcji i współpracy człowiek – maszyna zostały zintegrowane z pomiarami elektrofizjologicznymi reakcji osób, które wchodziły w kontakt z botami.
Badacze potwierdzili istotny wpływ efektu doliny niesamowitości na relacje z tymi maszynami, które wykazują cechy bardziej ludzkie. Wyniki pokazały m.in., że człowiek wolał rozmowę z chatbotem tekstowym niż z animowanym awatarem (użyto do tego polskiej wersji chatbota witającego studentów w wirtualnym dziekanacie Akademii Leona Koźmińskiego. To edytor, któremu studenci mogą zadawać pytania).
Zaufaj mi, człowieku
Inne badania nad chatbotami łączą metody neurobiologiczne, eksplorację tekstów i głębokie uczenie z kwestią zaufania do chatbotów i ich ogólną „przejrzystością”, czyli możliwością zrozumienia, jak działają.
Rozpoczęła się już faza sztucznej inteligencji masowo przekształcającej społeczeństwo, gospodarkę i politykę
Twierdzi się, że zaufanie jest centralnym punktem udanej interakcji człowiek – chatbot. Wraz z pojawieniem się chatbotów wykorzystujących głębokie uczenie ta interakcja weszła na wyższy poziom. Maszyny wraz z postępem rozmowy uczą się swojego rozmówcy, tak aby interakcja była coraz bardziej godna jego zaufania.
Technologia tych badań polega na analizie treści komunikatów powstających w interakcjach człowiek – chatbot przy użyciu tzw. Condor Tribefinder. Narzędzie opracował zespół wspomnianego prof. Gloora.
Poglądy? Jakie wolisz
Analiza wykonana przez Gloore’a pokazała, że chatboty mogą przekazywać i podzielać pewne ideologie oraz wartości i reprezentować pewne interesy. Jednak inna, ważniejsza część badań wykazała, że potrafią szybko zmieniać „poglądy”, deklarując różne stanowiska w krótkiej rozmowie, byleby dopasować się do rozmówcy. Tym samym zachowują się zupełnie inaczej niż człowiek, który przynajmniej w krótkim czasie czy w krótkiej rozmowie prezentuje wysoki stopień integralności ideologicznej.
Pojawia się więc pytanie, czy chatboty przyszłości będą przewidywalne i „integralne”, czy raczej elastyczne i podążające za swoimi użytkownikami. Czy i jakie będzie miało to znaczenie dla przyszłych pokoleń, skoro zarówno chatboty, jak i SI będą miały coraz bardziej istotny wpływ na nasze codzienne życie?
Zdaniem Olson, na którą powołuje się Przegalińska, chatboty przyszłości będą z klientami nawiązywać emocjonalne relacje. Z klientami, czyli z nami.
„Chatboty przyszłości nie tylko odpowiadają na pytania. Rozmawiają. Myślą. Wyciągają wnioski z baz wiedzy” – uważa Olson.
Co możemy zrobić dla lepszej sztucznej inteligencji
Opinia przedstawia następującą propozycję działań, wyliczając najważniejsze kroki dla społeczności naukowej zajmującej się sztuczną inteligencją/danymi, jak również dla szerszego grona odbiorców:
- Zaproponowanie wytycznych dotyczących etyki informatyki komputerowej , obejmujących takie kwestie jak: sprawiedliwość, bezpieczeństwo, przejrzystość, przyszłość pracy, demokracja, prywatność i ochrona danych osobowych, godność, a także niedyskryminacja.
- Zachęcanie do tworzenia europejskich centrów doskonałości, które mogłyby przyczynić się do technicznych rozwiązań problemów związanych z wyjaśnialnością (explainable AI, XAI) i uczciwością w SI.
- Zbadanie możliwych systemów finansowania w celu zwiększenia konkurencyjności badań i rozwoju w zakresie SI w Europie.
Wiele z tych kwestii porusza skoordynowany plan wspierania rozwoju i stosowania sztucznej inteligencji w Europie z grudnia 2018 roku.