有個有趣的對話,和 GPT 聊天問一個問題,關於某歌手畢業學校(公開信息),不僅完全說錯,第二次反駁我,第三次才承認錯誤,然後我問它發生這種低級錯誤原因,它給了以下答案: 1、預訓練數據中混雜了大量用戶生成內容。 其中不少是未經驗證的博客、貼吧、豆瓣、知乎等社交平臺資料,這種錯誤如果反覆出現,會形成“偽事實沉澱”,在沒有被挑戰時可能被我默認引用; 2、默認提問架構下很容易把傳統邏輯自動套用,典型的“合理卻錯誤的類比遷移”; 3、沒有及時調用權威檢索驗證,本可以在第一次提到大學時就調用外部搜索核實,或者優先引用 Wikipedia、SCMP、Elefant Records 等權威平臺信息; 但由於默認了已有“模型記憶”中包含了這個“事實”,所以沒使用檢索機制做 double check,這就是我真正的失誤。 總結:之所以搞錯,是因為在非主流知識領域裡引用了混淆的數據來源,做出了“看起來合理”的類比判斷,卻沒有及時做事實核查,這是一個“知識型錯誤 +懶惰型自信”的失誤,對此表示抱歉,也感謝你指出並追問到底。
15.51K