Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

宝玉
Prompt Engineer, dédié à l’apprentissage et à la diffusion des connaissances sur l’IA, le génie logiciel et la gestion de l’ingénierie.
Concernant les récentes plaintes des utilisateurs sur Claude "baisse d'intelligence" : parfois, les réponses aux questions sont incompréhensibles, et parfois, des caractères étranges apparaissent, comme le caractère thaïlandais "สวัสดี" dans une phrase en anglais.
Anthropic a récemment fourni des explications détaillées, confirmant que les problèmes rencontrés par Claude sont dus à trois bugs d'infrastructure, et non à une dégradation volontaire du modèle ou à une surcharge de trafic.
Quels sont ces trois bugs ?
Bug 1 : Les requêtes envoyées au mauvais endroit
Début août, certaines requêtes avec un contexte court ont été envoyées par erreur à des serveurs spécialisés dans le traitement de longs contextes. Au départ, seulement 0,8 % des requêtes étaient affectées, mais à la fin août, un ajustement de charge a fait grimper le taux d'erreur à 16 %. De plus, en raison de la fonction de mémoire du routage des serveurs, il y a de fortes chances qu'un même utilisateur rencontre plusieurs fois le problème.
Bug 2 : Apparition inexplicable de caractères étranges
Le 25 août, une optimisation a provoqué un désordre dans les sorties du modèle. Certains utilisateurs ont remarqué que Claude, en répondant à des questions en anglais, faisait apparaître "สวัสดี" (thaïlandais) ou des caractères chinois. Cette erreur est survenue de manière soudaine et a duré environ une semaine.
Bug 3 : Problème caché dans le compilateur TPU
Également à la fin août, une optimisation a activé un bug caché dans le compilateur sous-jacent XLA des puces TPU de Google. Ce bug peut amener Claude à perdre occasionnellement le mot avec la probabilité la plus élevée, entraînant une qualité de réponse très variable et extrêmement instable.
En raison de la superposition de ces trois problèmes, chacun se manifestant différemment, cela a rendu le diagnostic et la réparation très difficiles. Anthropic n'a commencé à corriger progressivement les problèmes qu'au début septembre.
Mesures d'amélioration futures
Anthropic a déclaré que cette panne a mis en lumière certains problèmes de tests insuffisants. À l'avenir, ils augmenteront la sensibilité de la surveillance et continueront à recueillir les retours des utilisateurs pour détecter et résoudre les problèmes plus rapidement.
Ils encouragent également les utilisateurs à signaler toute anomalie de performance de Claude directement sur l'interface de Claude.
Anthropic s'engage à ce que la qualité du service Claude reste toujours leur priorité.


Claudeil y a 4 heures
Nous avons publié un rapport détaillé sur trois bugs d'infrastructure qui ont affecté Claude entre août et début septembre.
Dans le rapport, nous expliquons ce qui s'est passé, pourquoi cela a pris du temps à corriger, et ce que nous changeons :
146
Une telle conclusion provient de ceux qui ne comprennent pas les agents intelligents, qui mythifient les agents intelligents - croire c'est magique, ne pas croire c'est non magique, et si ce n'est pas magique, c'est que vous n'êtes pas assez dévot :
1. La capacité des agents intelligents à résoudre des problèmes n'est pas illimitée, elle est limitée par la capacité du modèle et celle des outils.
2. Pour des problèmes que vous pouvez résoudre de manière indépendante, les agents intelligents ne peuvent pas nécessairement vous aider, par exemple, je peux réaliser de manière autonome une application complexe, mais un agent intelligent ne le peut pas.
3. Pour des problèmes que vous ne pouvez pas résoudre de manière indépendante, un agent intelligent peut également vous aider à les résoudre, par exemple, je ne peux pas résoudre un problème de leetcode ou un problème mathématique de manière autonome, un agent peut m'aider à le résoudre facilement ; par exemple, je ne parle pas japonais, l'AI peut m'aider à traduire du japonais.
La limite de ce qu'un agent intelligent peut résoudre dépend principalement de la vérifiabilité du problème à résoudre, c'est-à-dire si l'AI peut le vérifier elle-même ou si une personne doit le vérifier.
Par exemple, en programmation AI ou en mathématiques, tant que l'AI peut vérifier par elle-même, l'AI Agent peut fonctionner indéfiniment jusqu'à ce qu'il résolve le problème.
Par exemple, si un AI Agent écrit des textes, il peut rechercher des informations et rédiger de nombreuses versions de différents styles, mais il ne sait pas lui-même si ce qu'il écrit est bon ou mauvais, ou si cela répond à vos exigences, cela nécessite une vérification humaine, et les résultats peuvent varier selon le niveau de compétence des personnes qui vérifient.
Si je n'ai pas un bon niveau, que je ne peux pas distinguer le bon du mauvais, je ne peux pas donner de retour à l'agent intelligent, donc je ne peux pas l'aider à s'améliorer. Mais à ce moment-là, le niveau de qualité des résultats n'est pas nécessairement bas, car si je ne peux pas distinguer le bon du mauvais, cela signifie qu'il écrit à un niveau supérieur au mien.
Si j'ai un niveau très élevé, je peux immédiatement voir les problèmes dans l'article, indiquer les problèmes pour qu'il continue à modifier, et après quelques allers-retours, il peut être très bien modifié. Pas moins que mon propre niveau. Mais cela ne peut pas être entièrement automatisé, une intervention humaine est nécessaire.
En fin de compte, les agents intelligents ne sont pas de la métaphysique, mais de la science.

小年il y a 21 heures
Les intelligences artificielles peuvent-elles vraiment vous aider à résoudre d'un seul coup
la rédaction de scénarios pour des vidéos courtes, la rédaction de scénarios pour des diffusions en direct, la rédaction de publications sur les réseaux sociaux, la gestion de votre communauté, l'optimisation des affaires, etc.
La réponse est
si vous pouvez résoudre tous ces problèmes de manière autonome, alors l'intelligence artificielle peut tout résoudre pour vous.
Si vous ne pouvez pas résoudre ces problèmes de manière autonome et que vous avez une connaissance superficielle de ces activités, ne parlons même pas d'intelligence artificielle ; même si vous aviez un expert en résolution de problèmes pour vous aider en personne, il ne pourrait pas résoudre un seul problème.
La capacité de l'intelligence artificielle à résoudre des problèmes est illimitée.
Mais la compréhension humaine est limitée.
Les blocages intérieurs, en revanche, sont illimités.
242
AI remporte son premier titre ! Le système de raisonnement d'OpenAI décroche le championnat du monde ICPC
En septembre 2025, un championnat du monde spécial est né.
Cette fois, ce n'est pas une équipe d'élite d'une grande université qui monte sur le podium, mais un système d'intelligence artificielle de laboratoire d'OpenAI.
Ce qui est encore plus incroyable, c'est qu'il n'a pas seulement gagné la compétition, mais qu'il a également obtenu un score parfait - 12 questions toutes répondues correctement.

Mostafa Rohaninejadil y a 8 heures
1/n
Je suis vraiment ravi de partager que notre système de raisonnement @OpenAI a obtenu un score parfait de 12/12 lors des finales mondiales ICPC 2025, la première compétition universitaire de programmation où les meilleures équipes universitaires du monde résolvent des problèmes algorithmiques complexes. Cela l'aurait placé en première position parmi tous les participants humains. 🥇🥇

37
Meilleurs
Classement
Favoris