我们刚刚推出了 @CTGTInc 的 Mentat,这是一个与 OpenAI 兼容的 API,能够让企业对 LLM 行为进行确定性控制。 基准测试显示在准确性、真实性和幻觉预防方面有明显的提升。 我们在看到模型忽视正确信息或因其生成过程中依赖的内部模式而产生误解后构建了它。 提示和 RAG 无法纠正这一点。 Mentat 使用我们的政策引擎实时管理特征级别的行为。 它使输出与组织的规则和可信信息保持一致,并在不准确的信息到达最终用户之前进行纠正。 这减少了幻觉,并在不进行微调或脆弱的提示堆栈的情况下保持答案的一致性。 完整分析请见这里: