如果我們能教AI生成與視頻一樣自然的人類動作,那會怎麼樣? 來自NTU、商湯科技、清華大學、香港中文大學和NVIDIA的研究人員推出了ViMoGen。 他們建立了一個龐大的新數據集和一個擴散模型,將先進視頻生成的知識轉移到動作創建中。 結果是?它在動作質量、對提示的準確性以及對新場景的泛化能力上顯著超越了現有方法。 可泛化動作生成的探索:數據、模型和評估 論文: 項目: 我們的報告: 📬 #PapersAccepted 由Jiqizhixin