Um grupo de acadêmicos da equipe publicou um artigo realista. Parece que @SentientAGI sempre partiu da suposição de que todos os usuários agiriam de boa-fé em relação à impressão digital por IA. Agora, pesquisas foram realizadas para criar um mecanismo de proteção mais realista. A pesquisa mostrou que é fácil alterar maliciosamente a propriedade de um modelo de agente de IA. Isso é um problema porque a economia de agentes da Sentient tem um modelo de receita embutido para usuários finais e desenvolvedores. Se a propriedade dos modelos de IA criados não estiver totalmente protegida, esse sistema só servirá a alguns usuários maliciosos. Após essa pesquisa, Sentient certamente fará suas próprias melhorias. A equipe está trabalhando e pesquisando, então estou esperançoso em relação ao Sentient.