Un grupo de académicos dentro del equipo ha publicado un artículo realista. Parece que @SentientAGI siempre ha partido de la suposición de que todos los usuarios actuarían de buena fe respecto a la identificación por IA. Ahora, se han realizado investigaciones para crear un mecanismo de protección más realista. La investigación ha demostrado que es fácil alterar maliciosamente la propiedad de un modelo de agente de IA. Esto es un problema porque la economía de agentes de Sentient tiene un modelo de ingresos integrado para usuarios finales y desarrolladores. Si la propiedad de los modelos de IA creados no está completamente protegida, este sistema solo servirá a unos pocos usuarios maliciosos. Tras esta investigación, Sentient sin duda hará sus propias mejoras. El equipo está trabajando e investigando, así que tengo esperanza respecto a Sentient.