Nowoczesne systemy bezpieczeństwa w samochodach potrafią samoczynnie reagować, gdy kierowca się zagapi lub zacznie przysypiać za kółkiem. Teraz potrafią także wychwycić mikrosygnały z naszych twarzy. Dokąd zmierza wyczuwanie emocji kierowców?
Wyobraź sobie sytuację, że zza kierownicy zamawiasz hamburgera w popularnej restauracji typu drive thru. Odjeżdżasz, konsumując, i czujesz, że coś nie gra. Nie smakuje jak zawsze, dodali złego sosu. Krzywisz się, odkładasz ze złością kanapkę. Twoje auto reaguje, pytając, czy poprowadzić cię do następnej takiej restauracji, czy chcesz udać się do innej. W międzyczasie informuje tę pierwszą, że popełniono kardynalny błąd w zamówieniu. Dostajesz informację, że w następnej restauracji tej samej sieci otrzymasz podwójną porcję hamburgera, a za większą porcję frytek i napój nie zapłacisz. Czy tak będzie już wkrótce?
Tak jak systemy sztucznej inteligencji można nauczyć, by odróżniały zdjęcie psa od kota albo jednej zebry od drugiej, można je wyszkolić, aby rozróżniały gniew od śmiechu w naszym głosie czy radość od smutku po naszym wyrazie twarzy. Uśmiech to radość, łzy oznaczają smutek, krzyk złość i tak dalej. Istnieje cała gałąź inteligencji maszynowej poświęcona tworzeniu systemów, które potrafią rozpoznawać ludzkie emocje i na nie reagować. To informatyka zwana afektywną. I kilka firm na świecie pracuje z taką SI, by wprowadzać ją do kokpitów naszych samochodów.
Czy przypadkiem nie zagraża to naszej prywatności? Ludzkie emocje to jedna z najbardziej prywatnych rzeczy, jakie posiadamy.
Bezpieczeństwo przede wszystkim
Przepisy uchwalone w zeszłym roku w Europie dotyczą zwiększenia bezpieczeństwa na drogach poprzez nowe systemy. Od połowy 2022 r. wszystkie nowe samochody wprowadzane na rynek Unii Europejskiej będą musiały być wyposażone w zaawansowane systemy bezpieczeństwa. Chodzi o rozporządzenie w sprawie ogólnego bezpieczeństwa pojazdów silnikowych oraz ochrony pasażerów pojazdów i niechronionych użytkowników dróg.
„Te nowe przepisy pomogą nam znacznie zmniejszyć liczbę ofiar śmiertelnych i poważnych obrażeń na drogach UE. Zwiększają również konkurencyjność europejskich producentów samochodów na rynku światowym” – zauważa Timo Harakka, od 2019 r. fiński minister transportu i komunikacji. Podobną ustawę wprowadzono w lipcu br. pod obrady amerykańskiego Senatu.
„Ustawa SAFE jest pierwszym krokiem rządu Stanów Zjednoczonych, aby przyjrzeć się, jak technologia może chronić kierowców przed niebezpieczeństwem rozproszenia uwagi i senności za kierownicą – stwierdził David Tolub, dyrektor generalny izraelskiej firmy Eyesight Technologies, która zajmuje się rozwiązaniami komputerowymi opartymi na sztucznej inteligencji. Przepisy europejskie i amerykańskie pomagają uczynić pomysł „monitorowania kierowcy” mniej kontrowersyjnym. Bo podkreślają korzyści ze zwiększenia bezpieczeństwa. Ale takie systemy zbierają przecież dane.
Emocje na rynku
W Polsce nad podobnymi rozwiązaniami pracuje m.in. krakowski oddział globalnej firmy technologicznej Aptiv. System Interior Sensing Platform (Platforma Monitorowania Wnętrza) oparty na uczeniu maszynowym pozwala między innymi wykrywać spadek koncentracji kierowcy. Monitoruje wnętrze pojazdu i za pomocą czujników wspieranych oprogramowaniem sprawdza, czy prowadzący auto patrzy na drogę czy nie jest skupiony na trzymanym w ręku smartfonie i czy jest w stanie prowadzić samochód bezpiecznie. W ubiegłym roku Aptiv został jednym z partnerów Politechniki Śląskiej, realizującej doktoraty wdrożeniowe z zakresu sztucznej inteligencji.
Inna firma komputerowa, Affectiva współpracuje z Aptiv, ale też z BMW czy Porsche, i korzysta z narzędzi NVIDIA. Algorytmy Affectivy są szkolone na 9,5 miliona filmów przedstawiających twarze ludzi w trakcie rozmowy, reagowania na bodźce czy wykonywania jakichś czynności. Daje to łącznie około 5 miliardów ujęć twarzy.
Affectiva twierdzi też, że jej system rozróżnia różnice kulturowe w emocjach ludzkich, na przykład bardziej spokojnych Japończyków czy temperamentnych Hiszpanów, a także różnice w okazywaniu emocji występujące między płciami.
Tak jak systemy sztucznej inteligencji można nauczyć, by odróżniały zdjęcie psa od kota albo jednej zebry od drugiej, można je wyszkolić, aby rozróżniały gniew od śmiechu w naszym głosie czy radość od smutku po naszym wyrazie twarzy
W przemówieniu TED z 2015 roku współzałożycielka Affectivy, Egipcjanka Rana El-Kaliouby stwierdziła, że żyjemy w świecie coraz bardziej pozbawionym emocji, dlatego jej celem było przywrócenie emocji do naszych cyfrowych doświadczeń. (TED TALKS to konferencje naukowe organizowane corocznie przez amerykańską fundację non-profit Sapling Foundation, których celem jest popularyzacja – jak głosi motto – „idei wartych propagowania”).
Affectiva opracowuje algorytmy do samochodów, których zadaniem jest personalizowanie treści komunikatów, przedstawianie alternatywnych zaleceń dotyczących trasy, dostosowywanie warunków w kokpicie do otoczenia, takich jak oświetlenie i ogrzewanie, oraz rozumienie frustracji użytkowników za pośrednictwem wirtualnych asystentów i projektowanie ich tak, aby byli świadomi ludzkich emocji.
Zaangażowany pasażer
Affectiva Automotive AI to platforma, która rozumie, co dzieje się wewnątrz pojazdu. Opatentowane oprogramowanie wykorzystuje kamery samochodowe do pomiaru w czasie rzeczywistym stanu kabiny oraz kierowcy i pasażerów. Od złożonych emocji i stanów, takich jak senność i rozproszenie uwagi, po aktywność, wykrywanie obecności obiektu czy dziecka. System informuje na przykład o pozostawionych w aucie portfelu, komórce czy laptopie. Dostraja też głośność muzyki, oświetlenie i temperaturę do nastroju kierowcy.
Ale, jak wynika z opisu platformy, wykrywanie emocji i personalizacja usług pozwalają także zarabiać dzięki „zaangażowaniu pasażerów w treści” (wiadomości, nawigację, wyszukiwanie), co pozwala na personalizację reklam. Oprócz motoryzacyjnej sztucznej inteligencji Affectiva tworzy również oprogramowanie dla klientów w przestrzeni reklamowej. Na przykład wbudowana kamera w laptopach użytkowników rejestruje ich podczas oglądania reklam; ocenia ich reakcję emocjonalną, jaki rodzaj marketingu najprawdopodobniej ich zaangażuje i jakie jest prawdopodobieństwo, że kupią dany produkt. Czy będą to również śledzić auta z systemem Affectivy?
Pogaduszki z autem
Innym podmiotem jest Cerence (wcześniej Nuance). Dostarcza oprogramowanie do wielu znanych marek aut. „Audi A8 zostało zaprojektowane z myślą o zapewnieniu luksusowych, wysoce zautomatyzowanych wrażeń z jazdy, obejmujących intuicyjnego asystenta samochodowego, który może prowadzić naturalną rozmowę” – reklamuje współpracę z Cerence Martin Deinhard, dyrektor ds. rozwoju, usług połączonych i asystenta mowy w Audi. Wgląd w stan osób znajdujących się w kabinie pojazdu za pomocą systemów Cerence pomaga spersonalizować funkcje bezpieczeństwa (zapięcie i naprężenie pasów, ustawienie poduszek powietrznych) oraz treści emitowanych przez komputer pokładowy (wideo, muzyka i reklamy).
Z kolei oprogramowanie firmy Eyeris wykorzystuje techniki modelowania do automatycznej interpretacji wzorców zachowań pasażerów wewnątrz autonomicznych oraz wysoce zautomatyzowanych pojazdów. Te wizualne wzorce są pobierane z analiz śledzenia ciała, analizy twarzy i rozpoznawania emocji z mikroekspresji twarzy, a także rozpoznawania aktywności kierowcy i wszystkich pasażerów. System Eyeris wykrywa i śledzi 10 punktów ciała wraz z postawą, orientacją, konturami i pozycją. Wykrywa też i śledzi twarze pasażerów, klasyfikując siedem emocji na podstawie mikroekspresji. Przewiduje również płeć oraz szacuje wiek. Może analizować zachowanie, takie jak skupienie lub rozproszenie uwagi, senność, rozdrażnienie czy smutek. Opierając się na ustawieniach kamer, wykorzystuje dane z ruchu górnej części ciała do przewidywania różnych aktywności, takich jak jedzenie i picie, prowadzenie pojazdu, spanie, korzystanie z telefonu czy laptopa.
Jak przedstawia się ochrona wykorzystywania tych danych?
Europejczycy lepiej chronieni niż Amerykanie
W Europie sprawa wydaje się jasna. Przepisy unijne (rozporządzenie o ochronie danych osobowych, czyli słynne RODO) mogą zablokować wykorzystywanie danych kierowcy do celów innych niż zapewnienie bezpieczniejszej jazdy. Ale inaczej jest już w Stanach Zjednoczonych i innych rozwiniętych krajach – tu człowiek nie podlega takiej ochronie prywatności, jak w Unii Europejskiej. Wynika z tego, że firmy samochodowe są w dużej mierze wolne od wszelkich egzekwowalnych przepisów, które uniemożliwiłyby im wykorzystywanie danych kierowców według własnego uznania.
Sztuczna inteligencja odczytująca emocje trafia do produktów i usług, w których może zapewnić jakiś zysk. Wkrótce będzie wszechobecna również w samochodach i wtedy sami zobaczymy, czy więcej z niej pożytku, czy utrapienia.