Trzy lata arcyciekawych studiów doktoranckich, praca nad pionierską technologią i – last but not least – wynagrodzenie ok. 12 tysięcy złotych miesięcznie. Trwa nabór do programu doktoranckiego Microsoft Research PhD. Tylko do 31 lipca
Na uczestnika programu doktoranckiego Microsoft Research PhD, czyli absolwenta studiów magisterskich z informatyki lub dziedzin pokrewnych, programistę, fachowca z doświadczeniem w obszarze uczenia maszynowego i rozpoznawania obrazów, czekają niezwykle interesujące zadania. Doktorant będzie realizował swoją pracę w ramach projektu badawczego pt. „Low Shot Realistic Human Rendering from Partial Information” („Realistyczne renderowanie postaci ludzi na podstawie niepełnej informacji”).
W trakcie studiów doktorant będzie pracował nad pionierską technologią z naukowcami z Politechniki Warszawskiej i Microsoft Research Cambridge, odwiedzi laboratoria Microsoft Research w Cambridge, będzie uczestniczył w najważniejszych konferencjach z obszarów uczenia maszynowego i rozpoznawania obrazów, dostanie też wynagrodzenie w wysokości ok. 3 tys. euro (na zasadzie umowy cywilnoprawnej). Wszystko w ciągu trzech lat.
Program Microsoft Research PhD uruchomiono w 2004 r. Jak dotąd pomógł ponad 200 doktorantom z blisko 20 krajów i 51 instytucji. W najnowszej edycji programu wsparcia doktorantów Microsoft w regionie EMEA (Europa, Bliski Wschód, Afryka) bierze udział Politechnika Warszawska – wśród 16 wyselekcjonowanych do finansowania aplikacji (m.in. z takich uniwersytetów jak Cambridge czy Oksford) znalazł się wniosek dr. hab. inż. Tomasza Trzcińskiego z działającego w strukturze Wydziału Elektroniki i Technik Informacyjnych Zakładu Grafiki Komputerowej Instytutu Informatyki oraz absolwenta PW – dr. inż. Marka Kowalskiego, który aktualnie pracuje w Microsofcie. To oni będą opiekunami naukowymi w projekcie.
O co w nim chodzi? O szybkie tworzenie animacji. W grach wideo i filmach coraz częściej wymagane jest tworzenie wysokiej jakości awatarów postaci ludzkich. Rozwiązania wykorzystywane w takich technikach, jak VR (wirtualna rzeczywistość), AR (rozszerzona rzeczywistość) czy CGI (obrazy generowane komputerowo) zajmują dużo czasu, są drogie i trudne do skalowania. „Praca nad cyfrową postacią zazwyczaj rozpoczyna się od skanu 3D twarzy czy ciała prawdziwej osoby wykonującej różne czynności. Taki skan wymaga specjalistycznego sprzętu, a potem jest jeszcze przetwarzany przez grafików. Na tym nie koniec. Aby realistycznie animować model, potrzeba także aktora, który wykona pożądane sekwencje w specjalnym studiu ‘przechwytywania ruchu’ (tzn. motion capture)” – czytamy w komunikacie Politechniki. W ten sposób powstały chociażby takie kultowe filmowe postaci jak Gollum z „Władcy Pierścieni”, Na-vi z „Avatara” czy Hulk (odgrywany przez Marka Ruffalo) w serii „Avengers”. Cel projektu zakłada, aby z częściowych informacji (np. fragmentu twarzy) i podstawowych, łatwych do zebrania danych, bez wykorzystywania skomplikowanych systemów wymagających wielu powtórzeń (w jednej z opisanych metod człowiek musi użyć 122 wyrażenia i 50 zdań oraz być rejestrowanym przez 40 kamer) – wygenerować realistycznie wyglądające filmy (np. z pełną twarzą i mimiką oraz naturalnym sposobem mówienia).
– Chcemy wykorzystać generatywne modele sieci neuronowych do tworzenia wysokiej jakości wizualizacji postaci oraz animacji ich ruchu – wyjaśnia dr Trzciński. – Wyzwaniem badawczym, które przed sobą stawiamy, jest ograniczenie ilości danych potrzebnych do wytrenowania takich algorytmów, a także jakość rezultatów, które mają być nieodróżnialne od efektów uzyskanych tradycyjnymi metodami generowania grafiki. Zamierzamy ułatwić powstawanie awatarów, wykorzystując do tego dwa sposoby: Partial Information (częściowe informacje) i Low-shot learning (uczenie się przy niskim poziomie zaawansowania) – tłumaczy dr Trzciński.
Więcej informacji na stronie Politechniki Warszawskiej.