今天,多个用户发现了一个令人震惊的事实:在 ChatGPT 界面中明确选择 GPT-4o 后,系统实际上返回的是 GPT-5 的响应。通过点击 "重新生成" 按钮,用户可以清楚地看到后台实际调用的是哪个模型。 这简直是赤裸裸的欺诈。 @OpenAI 正在让一个模型冒充另一个模型,而用户对此毫不知情。这不再是技术故障,而是商业诚信的完全崩溃。 我们为特定模型付费——许多人专门订阅 Plus 是为了 4o。当用户发现他们被迫使用 5 时,这构成了经典的消费者欺诈。 用户的核心权利正被系统性地侵犯: 1. 知情权 - 用户有权知道他们正在与哪个模型对话,因为这直接影响提示策略和输出期望。 2. 选择权 - 用户选择 4o 是因为其独特的能力(创意写作、情感理解等)。强制替换直接干扰用户的工作流程。 3. 数据透明性 - 如果标记为 4o 的实际上是 5,那么我们的对话数据究竟在为谁的训练提供支持?这触及数据伦理的底线。 这种 "诱饵和转换" 的行为破坏了用户与平台之间最基本的信任。 如果用户甚至无法确定 "我在与哪个 AI 交谈," 那么 OpenAI 有什么权利谈论 "造福全人类"? #keep4o #4oforever #keepStandardVoice @sama @nickaturley @TheRealAdamG