🎉 "L'essence de la programmation AI est la gestion du contexte" Cette phrase est très utile, elle peut expliquer le processus de développement des applications AI et les tendances futures. Si l'on dit que LLM est le CPU, alors le contexte est la mémoire, et la capacité de la mémoire est limitée, le choix des données devient la clé de la qualité de sortie du modèle. ❓ Que va-t-on stocker dans cette mémoire de contexte ? Comment l'optimiser ? 1️⃣ Système de prompts L'optimisation est la même que celle de l'ingénierie des prompts d'autrefois, donc les éléments clés des prompts excellents doivent être organisés. Mais l'ingénierie des prompts n'est plus nouvelle, l'ingénierie du contexte est à la mode, toutes les applications AI suivent cette tendance. 2️⃣ Liste d'outils Si les informations de contexte sont insuffisantes, il faut appeler des outils pour les obtenir. Au début, les applications AI n'avaient qu'un petit nombre d'outils essentiels (lecture/écriture de fichiers, exécution de commandes), puis beaucoup d'outils et de services externes ont été étendus grâce à MCP. 3️⃣ Fichiers (base de connaissances/rag) Les documents liés aux problèmes sont également très importants, des IDE comme Cursor vont automatiquement sauvegarder les fichiers actuellement ouverts, les fichiers récemment ouverts, les fichiers liés aux problèmes et le code clé récupéré dans le contexte. De plus, l'ingénierie du contexte va gérer automatiquement les données de mémoire, tout comme une opération de nettoyage de mémoire, les données inutiles sont remplacées, les données utiles sont mises en avant pour augmenter leur poids, etc. ❓ Tout cela semble plutôt bon, pourquoi cc a-t-il encore créé un subagent ? Au fur et à mesure que la conversation progresse, le contenu dans le contexte devient de plus en plus volumineux, il est sur le point d'exploser ! Pour répondre aux questions, LLM peut appeler plusieurs fois des outils (par exemple, lire des fichiers), les résultats des outils + le contenu des fichiers chargés sont constamment ajoutés au contexte, le contexte du principal agent est facilement sur le point d'exploser, la qualité de sortie du modèle commence à diminuer, voire à provoquer des hallucinations. ...