氛围编码思考... 随着我越来越多地使用Claude Code和Gemini(通过Sandbox),我注意到一个模式:模型和用户朝着共享的接口语言趋同。这个接口是一种压缩的、不自然的英语,介于正常英语和代码之间。 以代码为中心的模型更喜欢结构化的指令:明确的约束、步骤顺序、输入/输出、边缘案例、接受标准。 人类更喜欢自然英语:上下文、意图和隐含意义。 摩擦发生的原因是双方都不完全流利于对方的母语格式,因此意义会丢失。 因此,我的提示在某种程度上是次优的,就像强口音是次优的一样:意图是正确的,但传输不一致,因此模型误解了细节,迭代次数增加。 解决办法是添加一个翻译层。 我使用一个非代码的LLM(ChatGPT)来将我的普通英语意图转换为代码集中模型最能处理的精确提示格式。 这减少了误解,并实质性地压缩了0→1的构建周期。 强烈推荐:使用翻译模型将意图转换为结构化提示,然后再发送给代码模型。