Efter ytterligare flera dagar av intensiv användning av GPT-5 via Cursor och via GPT-5 Pro-modellen i webbappen står jag fast vid allt jag sagt om att den är en mycket smartare modell och bättre på att koda än Opus 4.1 Jag gillar fortfarande Opus och tycker att ergonomin i Claude Code är trevligare på många sätt, men om du försöker göra riktigt svåra saker som kräver riktigt smart första-princip-tänkande och datavetenskap är GPT-5 nästa nivå. Men jag misstänker att detta bara framträder när resonemangsansträngningsläget är inställt på åtminstone medium, och verkligen manifesterar sig med inställningen för hög ansträngning. Ett bra exempel på ett problem är att förbereda "röda linjer" i två långa, komplexa juridiska dokument. Inte olika versioner av samma dokument, utan två olika dokument som kommer från en delad allmän mall. Detta är ett mycket, mycket svårt problem att göra ett bra jobb med, och kräver många smarta knep och heuristik för att ge anständig prestanda och utdatakvalitet (jag pratar om att använda traditionella programmeringstekniker här, inte att använda LLM:er för att göra denna jämförelse). GPT-5 med Cursor agent kan helt enkelt komma på fler, bättre, smarta (men ändå pragmatiska) idéer snabbare och implementera dessa korrekt och utan mycket handhållning, jämfört med Opus4.1. Det beror dock på vad du arbetar med. Jag tror fortfarande att jag föredrar frontend-kod i NextJS av Opus, till exempel. Men du bör absolut kolla själv på dina egna faktiska problem och inte lita på alla de många människor som säger att modellen suger och att det är ett bevis på att vi har gått in i väggen. Antingen använder de den dåliga gratisversionen utan att tänka, eller så har de ingen aning om hur man frågar effektivt, eller så låter de sina känslor för OpenAI och Altman färga sina åsikter.
35,62K