不要把大型語言模型(LLMs)視為實體,而是視為模擬器。例如,在探索一個主題時,不要問: "你對xyz有什麼看法?" 並不存在"你"。下次試著問: "探索xyz的好團體是哪些人?他們會說什麼?" 大型語言模型可以通道/模擬許多觀點,但它並沒有"思考過"xyz一段時間,隨著時間的推移,也沒有以我們習慣的方式形成自己的看法。如果你強迫它使用"你",它會通過採用其微調數據統計所暗示的個性嵌入向量來給你一些東西,然後模擬那個。這樣做是可以的,但我發現人們天真地將"詢問AI"賦予的神秘感要少得多。