もしAIが動画を生成するのと同じように人間の動きを生成することも教えられたらどうでしょうか? NTU、センスタイム、清華、中大、NVIDIAの研究者がViMoGenを発表します。 彼らは膨大な新しいデータセットと、高度な映像生成からモーション生成へと知識を移す拡散モデルを構築しました。 その結果は?動作の質、プロンプトの正確さ、新しいシナリオへの汎用性において、既存の手法を大きく上回っています。 一般化可能なモーション生成の探求:データ、モデル、評価 論文: プロジェクト: 私たちの報告: 📬 #PapersAccepted:ジーチジシン