速报一波,grok-code-fast-1 构不成威胁。说 grok-code-fast-1 好用的应该都是没自己实测的。 (你看到的这个大象牙膏测试好像挺好的对吧?但实际上这是静止画面,对,它写出来的代码完不成动画) 应该是我下半年给大家测过的头部模型最差的.... 散了吧,不要用这个写代码, 否则就等着疏通马桶吧. openrouter 上用量大纯纯是因为便宜 ($1.50 / 百万 token ) 体感应该在 OpenAI-o4-mini > gemini-2.5-flash > (grok-code-fast-1) > gpt-4o 这个区间。 我还怀疑是不是不支持中文,于是用英文原生 prompt 测试,还是那样。没区别。 也不是没优点啊,的确fast, 但是看上去输出超过 2K token 后速度立刻变慢 (模型最大只能输出10K...... ),不确定是不是 openrouter 提供的API有问题。(我在openrouter测试的) 晚点时间我给大家放出详细评测内容。