En våg av snabba rapporter, grok-code-fast-1 utgör inget hot. De som säger att grok-code-fast-1 är lätt att använda borde inte ha testat det själva. (Elefanttandkrämstestet du såg verkar vara ganska bra, eller hur?) Men i själva verket är detta en stillbild, ja, koden den skriver är inte fullständig animerad) Det borde vara den sämsta huvudmodellen jag har testat för dig under andra halvåret.... Sprid ut, använd inte detta för att skriva kod, annars är det bara att vänta med att rensa toaletten. Den stora användningen på OpenRouter beror enbart på att det är billigt ($1,50 / miljon tokens) Somatosensorisk bör vara på OpenAI-o4-mini > gemini-2.5-flash > (grok-code-fast-1) > gpt-4o Det här intervallet. Jag undrade också om kinesiska inte stöddes, så jag testade det med den engelska infödda prompten, och det var fortfarande detsamma. Det spelar ingen roll. Det är inte utan sina fördelar, det är verkligen snabbt, men det verkar som om hastigheten omedelbart saktar ner efter att ha matat ut mer än 2K tokens (modellen kan bara mata ut 10K som mest...... ), inte säker på om det finns ett problem med API:et som tillhandahålls av OpenRouter. (Jag testade det på openrouter) Jag kommer att släppa det detaljerade utvärderingsinnehållet till dig senare.