Wir haben gerade @CTGTInc's Mentat gestartet, eine OpenAI-kompatible API, die Unternehmen deterministische Kontrolle über das Verhalten von LLMs gibt. Benchmark-Tests zeigten klare Verbesserungen in Genauigkeit, Wahrhaftigkeit und der Verhinderung von Halluzinationen. Wir haben es entwickelt, nachdem wir gesehen haben, dass Modelle korrekte Informationen ignorieren oder Missverständnisse erzeugen, aufgrund der internen Muster, auf die sie während der Generierung angewiesen sind. Prompts und RAG konnten das nicht korrigieren. Mentat nutzt unsere Richtlinien-Engine, um das Verhalten auf der Funktionsebene in Echtzeit zu steuern. Es stimmt die Ausgabe mit den Regeln und vertrauenswürdigen Informationen einer Organisation ab und behebt Ungenauigkeiten, bevor sie den Endbenutzer erreichen. Dies reduziert Halluzinationen und hält die Antworten konsistent, ohne Feinabstimmung oder fragile Prompt-Stapel. Vollständige Aufschlüsselung hier: