🎉 “De essentie van AI-programmering is het beheren van context” Deze uitspraak is erg nuttig, het kan het ontwikkelingsproces en de toekomstige trends van AI-toepassingen uitleggen. Als LLM de CPU is, dan is de context het geheugen, en de geheugencapaciteit is beperkt, de afweging van gegevens wordt de sleutel tot de kwaliteit van de modeloutput. ❓ Wat zal er in dit geheugen van de context worden opgeslagen? Hoe kunnen we dat optimaliseren? 1️⃣ Systeemprompt Optimalisatie is de oude set van prompt-engineering, dus de kernfactoren van uitstekende prompts moeten worden geregeld. Maar prompt-engineering is niet meer nieuw, context-engineering is de trend, alle AI-toepassingen volgen dit. 2️⃣ Lijst van tools Als er onvoldoende contextinformatie is, moeten we tools aanroepen om deze te verkrijgen. In het begin hadden AI-toepassingen slechts een paar kerntools (bestanden lezen/schrijven, commando's uitvoeren), maar later zijn er veel externe tools en diensten uitgebreid via MCP. 3️⃣ Bestanden (kennisbank/rag) Documenten die relevant zijn voor de vraag zijn ook erg belangrijk. IDE's zoals Cursor zullen automatisch de momenteel geopende bestanden, recent geopende bestanden, vraaggerelateerde bestanden en opgehaalde belangrijke code opslaan in de context. Bovendien zal context-engineering automatisch de geheugen gegevens beheren, net als bij geheugenopruimingen, nutteloze gegevens worden vervangen, nuttige gegevens worden vooraan geplaatst om het gewicht te verhogen, enzovoort. ❓ Dit alles lijkt goed, waarom heeft cc dan een subagent gemaakt? Naarmate het gesprek vordert, wordt de inhoud in de context steeds meer, het raakt bijna vol! LLM kan om vragen te beantwoorden mogelijk meerdere keren tools aanroepen (bijvoorbeeld bestanden lezen), de resultaten van de tools + de geladen bestandsinhoud worden voortdurend aan de context toegevoegd, de context van de hoofdagent raakt gemakkelijk vol, de kwaliteit van de modeloutput begint te dalen, en er kunnen zelfs hallucinaties optreden. ...