Wat als we AI zouden kunnen leren om menselijke beweging te genereren, net zoals het video's genereert? Onderzoekers van NTU, SenseTime, Tsinghua, CUHK en NVIDIA presenteren ViMoGen. Ze hebben een enorme nieuwe dataset en een diffusie-model gebouwd dat kennis overbrengt van geavanceerde video-generatie naar bewegingscreatie. Het resultaat? Het presteert aanzienlijk beter dan bestaande methoden in bewegingskwaliteit, nauwkeurigheid ten opzichte van prompts en generalisatie naar nieuwe scenario's. De zoektocht naar generaliseerbare bewegingsgeneratie: Data, Model en Evaluatie Paper: Project: Ons rapport: 📬 #PapersAccepted door Jiqizhixin