Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Je commence à voir les modèles d'Anthropic comme des modèles de "raisonnement léger", tandis que les modèles d'OpenAI sont des modèles de "raisonnement profond".
Avec seulement "Raisonnement léger", Sonnet 4.5 excelle dans l'utilisation efficace du contexte pour cibler l'information.
Les appels d'outils Codex sont encombrants, et ils sont entrecoupés de jetons de raisonnement pour tester des hypothèses. Il a besoin de contexte pour comprendre davantage le problème.
L'écart entre GPT-5 et Sonnet 4.5 devient apparent lorsque vous avez une fenêtre de contexte "chaude", où aucun nouvel appel d'outil n'est nécessaire.
GPT-5 peut réfléchir pendant des minutes pour trouver une solution complète et détaillée, tandis que Sonnet 4.5 se contente de quelques secondes pour une solution acceptable.
Le raisonnement profond ne fonctionne qu'avec un contexte suffisant, mais permet au modèle d'évaluer les problèmes de manière si exhaustive qu'il semble presque surhumain.
En revanche, le raisonnement léger reste plus proche de la surface, mais sert d'espace de respiration pour que les modèles puissent rassembler leurs pensées. C'est à bien des égards beaucoup plus humain.
Anthropic est de loin en avance sur le raisonnement léger. GPT-5 avec un minimum de réflexion est moins intelligent que 4o dans de nombreux tests.
Je m'attends à ce que Google se batte sur les deux fronts, avec Flash 3 sur le raisonnement léger, et Pro / Ultra 3 sur le raisonnement profond.
Meilleurs
Classement
Favoris