Un grupo de académicos dentro del equipo ha publicado un artículo realista. Parece que @SentientAGI siempre ha procedido con la suposición de que todos los usuarios actuarían de buena fe respecto al fingerprinting de IA. Ahora, se ha llevado a cabo una investigación para crear un mecanismo de protección más realista. La investigación ha demostrado que es fácil alterar maliciosamente la propiedad de un modelo de agente de IA. Esto es un problema porque la economía de agentes de Sentient tiene un modelo de ingresos integrado para los usuarios finales y desarrolladores. Si la propiedad de los modelos de IA creados no está completamente protegida, este sistema solo servirá a unos pocos usuarios maliciosos. Tras esta investigación, Sentient sin duda hará sus propias mejoras. El equipo está trabajando e investigando, así que tengo esperanzas sobre Sentient.