Raisons de faire confiance à l'IA, cela se prouve maintenant @inference_labs Le fait qu'il y ait de plus en plus de modèles d'IA n'est plus une nouvelle La vraie question est Pouvons-nous vraiment vérifier que ce modèle a été exécuté de cette manière ? OpenGradient aborde la question de front Actuellement, le hub de modèles d'OpenGradient contient plus de 1 000 modèles d'IA vérifiables enregistrés, et ceux-ci ne sont pas simplement listés, mais fonctionnent réellement sur un testnet La structure de confiance de l'exécution créée par OpenGradient Dans cet environnement, l'IA fonctionne de cette manière Aucune autorisation n'est nécessaire Les modèles sont stockés et hébergés sans l'approbation d'un administrateur central Exécution vérifiable, pas invisible Toutes les inférences sont effectuées dans un environnement sécurisé basé sur TEE ou ZKML Pas seulement une vérification par des mots, mais une preuve on-chain On peut vérifier directement sur la blockchain quand et comment le modèle a été exécuté, et Les données restent la propriété de l'utilisateur jusqu'à la fin Les données d'entrée et les résultats ne sont pas exposés à des opérateurs de communication externes ou à des intermédiaires.