不要把大型语言模型(LLMs)视为实体,而是视为模拟器。例如,在探索一个主题时,不要问: “你对xyz有什么看法?” 这里没有“你”。下次试试: “探索xyz的好团队是什么样的?他们会说些什么?” 大型语言模型可以传达/模拟许多观点,但它并没有“思考”xyz很长时间,也没有像我们习惯的那样形成自己的观点。如果你通过使用“你”来强迫它,它会通过采用其微调数据统计所暗示的人格嵌入向量来给出某种回应,然后进行模拟。这是可以的,但我发现人们天真地归因于“询问AI”的神秘感要少得多。