Ik begin de modellen van Anthropic te zien als "lichte redeneermodellen", terwijl de modellen van OpenAI "diepe redeneermodellen" zijn. Met alleen "lichte redeneermodellen" blinkt Sonnet 4.5 uit in efficiënt gebruik van context om informatie te pinpointen. Codex-tooloproepen zijn omvangrijk en worden afgewisseld met redeneer-tokens om hypothesen te testen. Het heeft context nodig om meer van het probleem te begrijpen. De kloof tussen GPT-5 en Sonnet 4.5 wordt duidelijk wanneer je een "hete" contextvenster hebt, waar geen nieuwe tooloproepen nodig zijn. GPT-5 kan minutenlang nadenken om een gedetailleerde complete oplossing te vinden, terwijl Sonnet 4.5 tevreden is met een paar seconden voor een bruikbare oplossing. Diepe redenering werkt alleen met voldoende context, maar stelt het model in staat om problemen zo grondig te evalueren dat het bijna bovenmenselijk lijkt. Daarentegen blijft lichte redenering dichter bij de oppervlakte, maar dient als ademruimte voor modellen om hun gedachten te verzamelen. Het is op veel manieren veel menselijker. Anthropic is ver vooruit op lichte redenering. GPT-5 met minimale denkkracht is in veel tests minder intelligent dan 4o. Ik verwacht dat Google op beide fronten zal vechten, met flash 3 op lichte redenering en pro / ultra 3 op diepe redenering.