Do stworzenia realistycznego, trójwymiarowego awatara wystarczy już tylko jedno zdjęcie

Badacze z Imperial College London i FaceSoft.io, start-upu wykorzystującego sztuczną inteligencję i uczenie maszynowe do analizy twarzy, nazwali tę technikę AvatarMe. Zapewniają, że znacznie przewyższa ona istniejące systemy, generując przy tym wierne wizerunki ludzi w rozdzielczości do 6K nawet ze zdjęcia o niskiej jakości.

Jak to zrobili?

Potrzebna jest do tego ogromna ilość danych. Naukowcy wykorzystali kulisty stojak oświetlający głowę w taki sposób, by jej wygląd z różnych perspektyw mogło zarejestrować dziewięć kamer. Pozyskane w ten sposób bardzo wyraźne obrazy wykorzystali do szkolenia modelu sztucznej inteligencji o nazwie GANFIT.

Adres filmu na Youtube: https://www.youtube.com/watch?v=fEsgeZPN8Uw&feature=emb_logo

AvatarMe generuje wierne wizerunki ludzi w rozdzielczości do 6K
Źródło: Alexandros Lattas / YouTube

GANFIT jest dwuczęściowym modelem składającym się z generatora, który tworzy próbki, i tzw. dyskryminatora, który próbuje odróżnić wygenerowane próbki obrazów od próbek rzeczywistych. Zarówno generator, jak dyskryminator poprawiają swoje możliwości aż do momentu, w którym dyskryminator nie jest w stanie odróżnić obrazów prawdziwych od zsyntetyzowanych z dokładnością większą niż 50 procent.

Przyszłość telekonferencji, zdalnych spotkań, gier i wirtualnej rzeczywistości maluje się w bardzo jasnych barwach

System AvatarMe poprawił rozdzielczości tekstur osiągane do tej pory w podobnych przedsięwzięciach. Dzięki oświetleniu tekstury oddzielny moduł jest w stanie określić współczynnik odbicia światła od skóry, zmarszczek czy włosów. Na razie nie potrafi jednak jeszcze tworzyć awatarów osób pochodzących ze wszystkich grup etnicznych.

Kolejną nowość w tej dziedzinie pokazali niedawno badacze Facebooka. Wspólnie z Uniwersytetem Południowej Kalifornii opracowali system uczenia maszynowego do generowania bardzo szczegółowej reprezentacji 3D całego człowieka, wraz z ubraniem, z jednego ujęcia kamery o rozdzielczości 1K. System nazywa się PIFuHD. To ulepszona wersja ubiegłorocznego projektu o nazwie PIFu, opracowanego przez naukowców z kalifornijskich uczelni.

Adres filmu na Youtube: https://youtu.be/o-84PnRGLTM

System uczenia maszynowego do generowania bardzo szczegółowej reprezentacji 3D całego człowieka, wraz z ubraniem, z jednego ujęcia kamery
Źródło: VR Game Trailers & Clips / YouTube

Przyszłość telekonferencji, zdalnych spotkań, gier i wirtualnej rzeczywistości maluje się w bardzo jasnych barwach.