LOGIC est le résultat de plus d'un an de travail acharné de l'équipe @inference_net. C'est le moyen le plus robuste de s'assurer que votre fournisseur d'inférence ne fait rien de louche. Il fonctionne directement avec @vllm_project, @OpenRouterAI, et tout fournisseur qui renvoie des logprops.
Inference
Inference8 nov. 2025
Today, we release LOGIC: A novel method for verifying LLM inference in trustless environments. - Detects model substitution, quantization, and decode-time attacks - Works out of the box with @vllm_project, @sgl_project, @OpenRouterAI, and more (just need logprops) - Robust across GPU types and hardware configurations - Low computational overhead (~1% of total cost) Blog: Code:
@inference_net @vllm_project @OpenRouterAI C'était un problème incroyablement difficile à résoudre, avec de nombreuses nuances et cas particuliers. Un grand merci à @AmarSVS, @francescodvirga et @bonham_sol pour tout leur travail acharné sur cela.
4,09K