Grupa akademików w zespole opublikowała realistyczny artykuł. Wydaje się, że @SentientAGI zawsze zakładał, że wszyscy użytkownicy będą działać w dobrej wierze w odniesieniu do identyfikacji AI. Teraz przeprowadzono badania, aby stworzyć bardziej realistyczny mechanizm ochrony. Badania wykazały, że łatwo jest złośliwie zmienić własność modelu agenta AI. To jest problem, ponieważ gospodarka agentów Sentient ma model przychodów wbudowany dla użytkowników końcowych i deweloperów. Jeśli własność stworzonych modeli AI nie jest w pełni chroniona, ten system będzie służył tylko kilku złośliwym użytkownikom. W związku z tymi badaniami, Sentient niewątpliwie wprowadzi własne ulepszenia. Zespół pracuje i prowadzi badania, więc mam nadzieję na Sentient.