Ma miękką, syntetyczną skórę, która pozwala reagować na dotyk i uderzenia – to Affetto, android stworzony przez japońskich inżynierów. Wynalazek ma pomóc tworzyć roboty obdarzone większą empatią wobec ludzi
Podczas corocznej konferencji AAAS (amerykańskiego stowarzyszenia popularyzującego naukę oraz wydawcy tygodnika „Science”) japoński robotyk prof. Minoru Asada z Uniwersytetu w Osace przedstawił robota Affetto. Jest wyposażony w syntetyczną skórę, która pozwala mu reagować na bodźce – zarówno delikatny dotyk jak i ból. Czujniki podłączone są do systemu sterowania twarzy, który może sygnalizować emocje.
Jak tłumaczy jego twórca, opracowany system może stać się częścią robota, która mogłaby odczuwać ból. Twierdzi, że takie rozwiązanie – czyli umożliwienie robotom odczuwania bólu – pozwoliłoby wyposażonej weń maszynie na empatię wobec ludzi. Byłoby to, jak mówi Asada, cenną cechą w przypadku robotów opiekujących się na przykład osobami starszymi.
Ale to na razie tylko życzenia inżyniera. Przede wszystkim nie wiemy, co tak naprawdę znaczy „odczuwać” i jakie mechanizmy za tym stoją. Cytowany przez „Science News” neurobiolog Antonio Damasio komentuje, że zbieranie bodźców dotykowych z otoczenia może być przydatne w interakcji z ludźmi. Nie ma jednak zbyt wiele wspólnego z przeżywaniem subiektywnego doświadczenia, na przykład bólu.
Żywe organizmy zdolne do operacji umysłowych są kruchymi pojemnikami bólu, przyjemności i tego, co się znajduje pomiędzy nimi. To właśnie przez swoją kruchość zyskują dostęp do królestwa odczuć – Antonio Damasio
Neurolog (w pracy opublikowanej w „Nature Machine Intelligence”) wyłuszcza, że emocje są po prostu fizycznymi stanami żywych organizmów, a zdolność do ich odczuwania jest im niezbędna, by móc regulować homeostazę (czyli mechanizmy samoregulacji). Jeśli chcemy mieć roboty zdolne do odczuwania, powinniśmy konstruować je tak, by miały wgląd w swoje stany fizyczne. To dopiero pozwoli im odczuwać „sztuczne odpowiedniki odczuć”, twierdzi naukowiec.
„Żywe organizmy zdolne do operacji umysłowych są kruchymi pojemnikami bólu, przyjemności i tego, co się znajduje pomiędzy nimi. To właśnie przez swoją kruchość zyskują dostęp do królestwa odczuć”, pisze Damasio.
Affetto do tego daleko, choć powstał w 2011 roku i ostatnio uzyskał właśnie resztę robotycznego szkieletu (przedtem był samą głową) oraz czułą na dotyk skórę. Będzie służył do innego celu – pozwoli lepiej kontrolować ruchy twarzy androidów.
„Robotyczne twarze humanoidalnych robotów cierpiały na problem czarnej skrzynki. Projektowano je i tworzono, ale oceniano w bardzo ogólnikowych kryteriach”, wyjaśnia Hisashi Ishihara, współautor pracy opublikowanej wraz z Minoru Asadą. „Nasze szczegółowe badania pozwolą nam skuteczniej kontrolować ruchy twarzy, żeby móc nadawać [robotom] bardziej zniuansowane ich wyrazy, takie jak uśmiech czy skrzywienie”.
Bardziej realistyczna mimika ma uczynić roboty bardziej „społecznymi” i umożliwić im wchodzenie w głębsze interakcje z ludźmi. W Japonii to szczególnie ważne, bo w tym kraju jest już mnóstwo robotów w biurach, szkołach i szpitalach. Przy kurczącej się i starzejącej populacji są cennym uzupełnieniem braku rąk do pracy. Jeśli będą lepiej się uśmiechać – a w przyszłości wykazywać empatię – będą lepiej wykonywać swoje zadania.
Czy kiedyś będą odczuwać ból, empatię i staną się świadome? Paradoksalnie, dla Japończyków nie ma to zbyt wielkiego znaczenia. „Wedle japońskich wierzeń wszystkie nieożywione przedmioty mają dusze. Metalowy robot nie różni się pod tym względem od człowieka”, tłumaczy “The Telegraph”: profesor Asada, który jest też prezesem Japońskiego Stowarzyszenia Robotyki.
W przeciwieństwie do neurologów (i filozofów), Asada jest optymistą. Zapytany, czy jesteśmy blisko wizji czujących androidów odmalowanej w filmie „Blade Runner” (opartym na powieści Philipa K. Dicka) mówi: „Myślę, że technicznie jesteśmy niedaleko, ale etycznie to rzecz jasna osobna sprawa”.
Pracę “Identification and Evaluation of the Face System of a Child Android Robot Affetto for Surface Motion Design” opublikowano w “Frontiers in Robotics and AI”.