مجموعة من الأكاديميين ضمن الفريق نشروا ورقة بحثية واقعية. يبدو أن @SentientAGI دائما ما تفترض أن جميع المستخدمين سيتصرفون بحسن نية فيما يتعلق ببصمة الذكاء الاصطناعي. الآن، أجريت أبحاث لإنشاء آلية حماية أكثر واقعية. أظهرت الأبحاث أنه من السهل تغيير ملكية نموذج وكيل الذكاء الاصطناعي بشكل خبيث. هذه مشكلة لأن اقتصاد وكلاء Sentient يحتوي على نموذج إيرادات مدمج للمستخدمين النهائيين والمطورين. إذا لم تكن ملكية نماذج الذكاء الاصطناعي التي تم إنشاؤها محمية بالكامل، فإن هذا النظام سيخدم فقط عددا قليلا من المستخدمين الخبيثين. بعد هذا البحث، ستقوم Sentient بلا شك بتحسيناتها الخاصة. الفريق يعمل ويبحث، لذا أنا متفائل بشأن Sentient.