我們剛剛推出了 @CTGTInc 的 Mentat,這是一個與 OpenAI 兼容的 API,為企業提供對 LLM 行為的確定性控制。 基準測試顯示在準確性、真實性和防止幻覺方面有明顯的提升。 我們在看到模型忽略正確信息或因依賴的內部模式而產生誤解後開發了它。 提示和 RAG 無法糾正這一點。 Mentat 使用我們的政策引擎在實時的特徵層面上管理行為。 它使輸出與組織的規則和可信信息保持一致,並在不準確信息到達最終用戶之前解決這些問題。 這減少了幻覺,並在不進行微調或脆弱的提示堆疊的情況下保持答案的一致性。 完整分析在這裡: