Hoje, lançamos o LOGIC: Um novo método para verificar a inferência de LLM em ambientes sem confiança. - Detecta ataques de substituição de modelo, quantização e tempo de decodificação - Funciona fora da caixa com @vllm_project, @sgl_project, @OpenRouterAI e muito mais (só precisa de logprops) - Robusto em todos os tipos de GPU e configurações de hardware - Baixa sobrecarga computacional (~1% do custo total) Blogue: Código: