W przyszłości roboty będą ekspertami w rozumieniu i przetwarzaniu informacji wizualnych oraz samodzielnym wykonywaniu na tej podstawie najrozmaitszych zadań – uważają Tianhe Yu i Chelsea Finn z Uniwersytetu Kalifornijskiego w Berkeley
Badacze nauczyli robota o nazwie PR2 umieszczać przedmioty gospodarstwa domowego w pojemnikach oznaczonych różnymi kolorami. Mówiąc precyzyjniej, robot nauczył się tego sam, obserwując, jak wspomniane czynności wykonują ludzie.
W lipcu 2018 roku Yu i Finn opublikowali wyniki swoich eksperymentów. Do sterującej robotem sieci neuronowej wprowadzili materiał instruktażowy: Yu umieścił brzoskwinię w misce, potem PR2 naśladował działania człowieka.
Do tej pory zakładano, że do każdego zadania roboty trzeba specjalnie programować. By robot coś zrobił, musiał zostać przeszkolony przez innego robota. Teraz okazuje się, że możemy po prostu pokazać im, co mają zrobić – chociaż sztucznej inteligencji trudno jest śledzić i naśladować nawet najprostsze ruchy człowieka, bo ludzie poruszają się w inny sposób niż maszyny. Tianhe Yu i Chelsea Finn rozwiązali ten problem, koncentrując się nie na tym, w jaki sposób poruszać robota, ale na celu, który maszyna ma osiągnąć. W takiej optyce ruch stał się jedynie drogą do celu, a nie celem samym w sobie.