Un gruppo di accademici all'interno del team ha pubblicato un documento realistico. Sembra che @SentientAGI abbia sempre proceduto con l'assunzione che tutti gli utenti agissero in buona fede riguardo al fingerprinting dell'AI. Ora, è stata condotta una ricerca per creare un meccanismo di protezione più realistico. La ricerca ha dimostrato che è facile alterare in modo malevolo la proprietà di un modello di agente AI. Questo è un problema perché l'economia degli agenti di Sentient ha un modello di entrate integrato per gli utenti finali e gli sviluppatori. Se la proprietà dei modelli AI creati non è completamente protetta, questo sistema servirà solo a pochi utenti malevoli. A seguito di questa ricerca, Sentient apporterà senza dubbio i propri miglioramenti. Il team sta lavorando e ricercando, quindi sono fiducioso riguardo a Sentient.