Neue Forschungen von OpenAI haben ergeben, dass Modelle halluzinieren, weil sie darauf trainiert wurden, selbstbewusst zu raten, anstatt zu sagen: ‚Ich weiß es nicht.‘ Eine mögliche Lösung besteht darin, Ehrlichkeit zu belohnen und falsche Vermutungen zu bestrafen. Das Ziel ist, eine KI zu haben, der man tatsächlich vertrauen kann.