Jag börjar se antropiska modeller som "light reasoning"-modeller, medan OpenAI-modeller är "deep reasoning"-modeller. Med endast "Light reasoning" utmärker sig Sonnet 4.5 genom effektiv kontextanvändning för att precisera information. Codex-verktygsanrop är skrymmande och de varvas med resonemangstokens för att testa hypoteser. Den behöver ett sammanhang för att förstå mer av problemet. Klyftan mellan GPT-5 och Sonnet 4.5 blir uppenbar när du har ett "hett" kontextfönster, där inga nya verktygsanrop behövs. GPT-5 kan tänka i minuter i sträck för att hitta en detaljerad helhetslösning, medan Sonnet 4.5 nöjer sig med några sekunder för en funktionsduglig lösning. Djupa resonemang fungerar bara med tillräcklig kontext, men gör det möjligt för modellen att verkligen utvärdera problem så uttömmande att den verkar nästan övermänsklig. Ljusresonemang håller sig däremot närmare ytan, men fungerar som andrum för modeller att samla sina tankar. Det är på många sätt mycket mer mänskligt. Anthropic ligger långt före när det gäller lätt resonemang. Gpt-5 med minimalt tänkande är mindre intelligent än 4o i många tester. Jag förväntar mig att Google kommer att kämpa på båda fronterna, med flash 3 på lätt resonemang och pro / ultra 3 på djupt resonemang.