Co kdybychom mohli naučit AI generovat lidský pohyb stejně jako generování videí? Výzkumníci z NTU, SenseTime, Tsinghua, CUHK a NVIDIA představují ViMoGen. Vytvořili obrovskou novou datovou sadu a difuzní model, který přenáší znalosti z pokročilé generace videa do tvorby pohybu. Výsledek? Výrazně překonává stávající metody v kvalitě pohybu, přesnosti na prompty a zobecnění na nové scénáře. Hledání generalizovatelné generace pohybu: Data, model a hodnocení Článek: Projekt: Naše zpráva: 📬 #PapersAccepted od Jiqizhixina