Um grupo de académicos dentro da equipa publicou um artigo realista. Parece que @SentientAGI sempre partiu do pressuposto de que todos os utilizadores agiriam de boa-fé em relação à impressão digital da IA. Agora, foi realizada uma pesquisa para criar um mecanismo de proteção mais realista. A pesquisa mostrou que é fácil alterar maliciosamente a propriedade de um modelo de agente de IA. Este é um problema porque a economia de agentes da Sentient tem um modelo de receita embutido para utilizadores finais e desenvolvedores. Se a propriedade dos modelos de IA criados não estiver totalmente protegida, este sistema servirá apenas alguns utilizadores maliciosos. Após esta pesquisa, a Sentient sem dúvida fará as suas próprias melhorias. A equipa está a trabalhar e a investigar, por isso estou esperançoso em relação à Sentient.