Nauczyliśmy maszyny liczyć, gromadzić i analizować dane, chodzić, latać i myśleć. Pora nauczyć je czuć i dotykać
Po co maszynie dotyk? By nie zrobić krzywdy człowiekowi, orientować się w przestrzeni, niczego nie psuć i nie uszkodzić samej siebie.
Ze zmysłem dotyku człowiek się rodzi – maszynę trzeba dopiero nauczyć. To bardzo skomplikowane, jednak gra jest warta świeczki. Dlatego zespoły naukowców w wielu ośrodkach na świecie pracują nad stworzeniem elektronicznej sztucznej skóry, która byłaby w stanie rejestrować dane związane z dotykiem. Techniki uczenia maszynowego mogą okazać się bardzo cennymi narzędziami do przetwarzania i interpretacji tych danych.
Dotyk w trójwymiarze
Prof. Nathan Lepora z Uniwersytetu w Bristolu próbuje wyposażyć roboty w zmysł dotyku od prawie dekady. W swoich wcześniejszych pracach stosował proste techniki uczenia maszynowego, co pozwalało robotom wyczuwać odkształcenia na płaszczyznach. Jednak niedawno uczony zmienił podejście. Wraz ze swym zespołem wyszkolił model oparty na głębokiej sieci neuronowej, tak by był on w stanie gromadzić informacje pochodzące z dotykania obiektów trójwymiarowych. Pozwoliło to maszynie na wnioskowanie na temat bodźców z otaczającego ją środowiska analogicznie do tego, jak człowiek wnioskuje dzięki sygnałom rejestrowanym przez skórę.
Mapy danych sensorycznych i cech powierzchni (np. takich jak kąt krawędzi) naukowcy zbudowali dzięki głębokim sieciom neuronowym. Technika opracowana przez prof. Leporę i jego współpracowników umożliwia lepszą kontrolę robotycznych opuszków palców. W przyszłości może zapewnić robotom sprawność fizyczną podobną do ludzkiej, umożliwiając im skuteczne dostosowanie strategii chwytania i manipulacji do obiektów, z którymi będą wchodziły w interakcje.
To może być początek generacji bardziej wydajnych robotów, w tym maszyn do prac domowych, zbierania plonów na farmach czy opieki nad pacjentami. W kolejnych badaniach naukowcy chcą zastosować metody sztucznej inteligencji do zbadania interakcji całych robotycznych rąk.
SI wykrywa ruch
Elektroniczną skórę zintegrowali z głęboką siecią neuronową również Koreańczycy z Uniwersytetu w Seulu oraz Instytutu Zaawansowanej Nauki i Technologii (KAIST) w Daejeon. Ich e-skóra powstała w wyniku współpracy ekspertów od inżynierii mechanicznej i informatyki. Może rejestrować dynamiczne ruchy ludzi, np. szybkie ruchy palców.
Ponoć nie da się nauczyć starego psa nowych sztuczek. Ale pies to nie robot. Istniejące już roboty mogą być trenowane do wielu nowych zadań
Od kilku lat Seung Hwan Ko, profesor inżynierii mechanicznej, próbuje stworzyć bardzo czułe czujniki odkształceń, generując pęknięcia w metalowych filmach nanocząstkowych za pomocą technologii laserowej. Najpierw zastosował zestawy takich czujników w rękawicy wirtualnej rzeczywistości (VR), zaprojektowanej do rejestrowania ruchów ludzkich palców. Okazało się, że wymagana liczba czujników odkształcenia rośnie wraz ze złożonością systemu.
Profesor postawił sobie jednak za cel wykrywanie ruchów dłoni za pomocą jednego czujnika. Udało się dzięki uczeniu maszynowemu. Po zamontowaniu na nadgarstku użytkownika czujnik może wykrywać sygnały elektryczne wytwarzane przez ruchy jego dłoni, a także określać, z którego palca pochodzą sygnały.
W przyszłości czujnik może mieć wiele zastosowań zarówno w projektowaniu robotów, jak urządzeń przeznaczonych do noszenia, np. do fitnessu. Co ciekawe, umieszczony na miednicy użytkownika system ten może również dekodować ruchy chodu.
Proteza, którą boli
Ważnym elementem naszej percepcji dotykowej jest odczuwanie bólu. Ból to mechanizm ochronny informujący nas, że doświadczamy potencjalnie szkodliwego bodźca. Dlatego badacze z Katedry Inżynierii Biomedycznej, Neurologii, Inżynierii Elektrycznej i Komputerowej oraz Technologii Biomedycznych Szkoły Medycznej Johnsa Hopkinsa we współpracy z naukowcami z Singapurskiego Instytutu Neurotechnologii stworzyli e-skórę dla haptycznej protezy ręki, reagującą na ból.
Wynaleźli wielowarstwową skórę o właściwościach opartych na zachowaniu receptorów dostarczających informacje dotykowe. Ta tak zwana e-skóra właściwa została zbudowana z piezorezystancyjnej tkaniny transdukcyjnej (Eeonyx, materiał jak czujnik wykrywa naprężenia zewnętrzne wywołane przez nacisk, co przekształca na sygnały elektryczne przesyłane dalej) umieszczonej między skrzyżowanymi przewodzącymi materiałami. Materiał jest wrażliwy na nacisk i zmniejsza opór przy zwiększonym obciążeniu. Do eksperymentów użyto m.in. protezę dłoni Bebionic, uznawaną za najbardziej zaawansowaną bioniczną protezę na świecie (producent Ottobock, Duderstadt, Niemcy).
Inspirowana naturą sztuczna skóra umożliwia użytkownikowi protezy rejestrowanie dotyku, od nieszkodliwego do bolesnego, jako że interfejs neuromorficzny wytwarza aktywność nerwową przypominającą tę z receptora.
„Jako przedłużenie ciała protetyczna ręka powinna wykazywać podobne zachowanie i funkcjonalność jak zdrowa dłoń – uważają twórcy tego systemu. – Wdrożyliśmy sztuczne modele receptorów bólu i ruchu, by naśladować naturalne kodowanie dotykowe w nerwach obwodowych”.
Efekt? Pochwyciwszy ostry przedmiot, proteza odruchowo zwalnia uścisk.
Wyczuć łososia
Ponoć nie da się nauczyć starego psa nowych sztuczek. Ale pies to nie robot. Istniejące już roboty mogą być trenowane do wielu nowych zadań. Norwegowie z SINTEF Ocean, instytutu badawczego w Trondheim, pracują nad nowymi funkcjami maszyn, które będą czuły, co chwytają. Robotyczne ramię z dwoma chwytnymi palcami wyposażyli w sztuczne oczy trójwymiarowo rejestrujące obraz. Dotknąwszy jakiegoś przedmiotu, palce wysyłają sygnały do wyposażonego w sztuczną inteligencję mózgu maszyny. To, że robot nigdy wcześniej nie widział np. fileta z łososia, nie przeszkadza mu sprawnie go pochwycić i przenosić z miejsca na miejsce. Przeszkolona drogą wielu symulacji SI umożliwia maszynie należyte obchodzenie się z rozmaitymi przedmiotami, także bardzo delikatnymi, jak pomidory czy truskawki.
W trwającym w Trondheim projekcie iProcess opracowano dwie metody uczenia się robotów: „z demonstracji” (LfD), podczas której maszyna uczy się chwytać produkty z miękkiej żywności łącząc rozpoznanie obrazu z dotykiem, oraz „na podstawie własnej eksploracji” – gdy robot wykorzystuje sztuczną inteligencję do samodzielnego uczenia się zadania w symulowanym środowisku.
By robot wiedział, czego dotyka
Nowa technologia będzie cenna nie tylko dla przemysłu spożywczego. Sprawdzi się wszędzie tam, gdzie przydadzą się robotyczne ramiona do manipulowania giętkimi, delikatnymi czy plastycznymi przedmiotami. Nad tym, by roboty wiedziały, czego dotykają i jak to robić, by nie uszkodzić przedmiotu, pracuje też zespół dr. Krzysztofa Walasa z Politechniki Poznańskiej. W tym przypadku chodzi o układanie elastycznych, odkształcających się wiązek przewodów. Najpierw trzeba nauczyć roboty, jak się poruszać, by nie uszkodziły przewodów.
Miękka robotyka, elektroniczne skóry i uczenie maszynowe to trójca, która może znacznie zwiększyć możliwości dzisiejszych robotów
– Druga rzecz jest bardziej intrygująca. To percepcja, dotyk, za pośrednictwem którego jesteśmy w stanie ustalić, jak się odkształca przewód. Posiadając tę zdolność, robot ma szansę wiedzieć, jak chwytać przewody o różnej twardości. Takie są założenia. Myślą przewodnią jest percepcja dla fizycznej interakcji. Inaczej mówiąc, chcemy, żeby roboty wiedziały, czego dotykają, z czym mają kontakt – wyjaśnia dr Walas.
Na końcu jest przyjaźń?
Miękka robotyka, elektroniczne skóry i uczenie maszynowe to trójca, która może znacznie zwiększyć możliwości dzisiejszych robotów – uważają naukowcy z Uniwersytetów: Kalifornijskiego, Yale, Stanforda, Cambridge i Uniwersytetu w Seulu, którzy przeprowadzili niedawno ciekawe badanie. Otóż zestawili oni dotychczasowe osiągnięcia w projektowaniu wrażliwych sztucznych powłok dla maszyn i przygotowali przegląd prac służących rozwijaniu technologii e-skóry wspomaganych uczeniem maszynowym.
W podsumowaniu napisali, że „pandemia COVID-19 pokazała, iż robotyka i automatyzacja mogą być przydatne do zmniejszenia obciążenia pracowników służby zdrowia. Ponieważ w niedalekiej przyszłości roboty mogą współpracować z pielęgniarkami i lekarzami w szpitalach lub mogą bezpośrednio pomagać pacjentom, chcielibyśmy, aby rozumiały ludzkie działania, aby umożliwić bardziej przyjazne relacje z ludźmi”.