¿Y si pudiéramos enseñar a la IA a generar movimiento humano tan bien como genera videos? Investigadores de NTU, SenseTime, Tsinghua, CUHK y NVIDIA presentan ViMoGen. Construyeron un nuevo conjunto de datos masivo y un modelo de difusión que transfiere conocimiento de la generación de video avanzada a la creación de movimiento. ¿El resultado? Supera significativamente los métodos existentes en calidad de movimiento, precisión en los prompts y generalización a nuevos escenarios. La búsqueda de la generación de movimiento generalizable: Datos, modelo y evaluación Artículo: Proyecto: Nuestro informe: 📬 #PapersAccepted por Jiqizhixin