OpenAI的新研究發現,模型產生幻覺是因為它們被訓練成自信地猜測,而不是說‘我不知道’。 一個潛在的解決方案是獎勵誠實,同時懲罰錯誤的猜測。目標是擁有一個你可以真正信任的AI。