🎉 "Essensen av AI-programmering er å administrere kontekst" Denne setningen er så nyttig at den forklarer utviklingsprosessen og fremtidige trender for AI-applikasjoner Hvis LLM er CPU, er konteksten minne, Minnekapasiteten er begrenset, og valg av data har blitt nøkkelen til kvaliteten på modellutgangen ❓ Hva vil bli lagret i sammenheng med minnet? Hvordan optimalisere dem? 1️⃣ Ord i systemet Optimalisering er det samme settet med ledetekstord som før, så kjerneelementene i utmerkede ledetekster må ordnes. Men rask engineering er ikke lenger nytt, kontekstteknikk er populært, og alle AI-applikasjoner følger etter 2️⃣ Liste over verktøy Til å begynne med hadde AI-applikasjoner bare noen få kjerneverktøy (lese og skrive filer, utføre kommandoer), og utvidet senere mange eksterne verktøy og tjenester gjennom MCP 3️⃣ Dokumentasjon (KB/RAG) Problemrelatert dokumentasjon er også viktig, og IDE-er som Cursor vil automatisk lagre åpne filer, nylig åpnede filer, problemrelaterte filer og hentede nøkkelkoder i kontekst Videre vil kontekstprosjektet automatisk administrere minnedataene, akkurat som minnerenseoperasjonen, erstatte de ubrukelige dataene, sette nyttige data foran, øke vekten osv ❓ Alt dette ser bra ut, hvorfor gjorde CC en underagent igjen? Etter hvert som samtalen skrider frem, blir det mer og mer innhold i sammenhengen, og den er i ferd med å sprekke! For å svare på spørsmålet kan LLM kalle verktøyet flere ganger (for eksempel lese en fil), og verktøyet returnerer resultatet + lastet filinnhold, og legger det stadig til konteksten. ...