Мы только что запустили Mentat от @CTGTInc, совместимый с OpenAI API, который предоставляет предприятиям детерминированный контроль над поведением LLM. Бенчмарки показали явные улучшения в точности, правдивости и предотвращении галлюцинаций. Мы создали его после того, как увидели, что модели игнорируют правильную информацию или создают заблуждения из-за внутренних паттернов, на которые они полагаются во время генерации. Подсказки и RAG не могли это исправить. Mentat использует наш движок политики для управления поведением на уровне функций в реальном времени. Он согласует вывод с правилами организации и доверенной информацией и устраняет неточности до того, как они достигнут конечного пользователя. Это снижает количество галлюцинаций и поддерживает последовательность ответов без тонкой настройки или хрупких стеков подсказок. Полный разбор здесь: