Hva om vi kunne lære KI å generere menneskelig bevegelse like godt som den genererer videoer? Forskere fra NTU, SenseTime, Tsinghua, CUHK og NVIDIA presenterer ViMoGen. De bygde et massivt nytt datasett og en diffusjonsmodell som overfører kunnskap fra avansert videogenerering til bevegelsesproduksjon. Resultatet? Den overgår eksisterende metoder betydelig når det gjelder bevegelseskvalitet, nøyaktighet i prompts og generalisering til nye scenarioer. Jakten på generaliserbar bevegelsesgenerering: Data, modell og evaluering Artikkel: Prosjekt: Vår rapport: 📬 #PapersAccepted av Jiqizhixin