¿Y si pudiéramos enseñar a la IA a generar movimiento humano tan bien como genera vídeos? Investigadores de NTU, SenseTime, Tsinghua, CUHK y NVIDIA presentan ViMoGen. Construyeron un nuevo conjunto de datos enorme y un modelo de difusión que transfiere el conocimiento de la generación avanzada de vídeo a la creación en movimiento. ¿El resultado? Supera significativamente a los métodos existentes en calidad de movimiento, precisión a los prompts y generalización a nuevos escenarios. La búsqueda de la generación de movimiento generalizable: datos, modelo y evaluación Papel: Proyecto: Nuestro informe: 📬 #PapersAccepted por Jiqizhixin