OpenAI的新研究发现,模型产生幻觉是因为它们被训练成自信地猜测,而不是说‘我不知道’。 一个潜在的解决方案是奖励诚实,同时惩罚错误的猜测。目标是拥有一个你可以真正信任的AI。