Jeg begynner å se på antropiske modeller som «lette resonneringsmodeller», mens OpenAI-modeller er «dype resonneringsmodeller». Med bare "lett resonnement" utmerker Sonnet 4.5 seg ved effektiv kontekstbruk for å finne informasjon. Codex-verktøykall er klumpete, og de er ispedd resonneringstokener for å teste hypoteser. Den krever kontekst for å forstå mer av problemet. Gapet mellom GPT-5 og Sonnet 4.5 blir tydelig når du har et "varmt" kontekstvindu, der det ikke er behov for nye verktøykall. GPT-5 kan tenke i minutter i strekk for å finne en detaljert komplett løsning, mens Sonnet 4.5 er fornøyd med noen få sekunder for en brukbar. Dyp resonnement fungerer bare med tilstrekkelig kontekst, men lar modellen virkelig evaluere problemer så uttømmende at den virker nesten overmenneskelig. Derimot holder lys resonnement seg nærmere overflaten, men fungerer som pusterom for modeller til å samle tankene sine. Det er på mange måter mye mer menneskelig. Antropisk er langt foran på lett resonnement. Gpt-5 med minimal tenkning er mindre intelligent enn 4o i mange tester. Jeg forventer at Google vil kjempe på begge fronter, med flash 3 på lett resonnement, og pro/ultra 3 på dyp resonnement.