🎉 "Kärnan i AI-programmering är att hantera sammanhang" Den här meningen är så användbar att den förklarar utvecklingsprocessen och framtida trender för AI-applikationer Om LLM är CPU, är sammanhanget minne, Minneskapaciteten är begränsad och valet av data har blivit nyckeln till kvaliteten på modellens utdata ❓ Vad kommer att lagras i minnessammanhang? Hur optimerar man dem? 1️⃣ Ord för systemuppmaningar Optimering är samma uppsättning promptord som tidigare, så kärnelementen i utmärkta prompter måste ordnas. Men snabb teknik är inte längre nytt, kontextteknik är populärt och alla AI-applikationer följer efter 2️⃣ Lista över verktyg Till en början hade AI-applikationer bara ett fåtal kärnverktyg (läsa och skriva filer, köra kommandon) och utökade senare många externa verktyg och tjänster genom MCP 3️⃣ Dokumentation (KB/RAG) Problemrelaterad dokumentation är också viktig, och IDE:er som Cursor sparar automatiskt filer som för närvarande är öppna, nyligen öppnade filer, problemrelaterade filer och hämtade nyckelkoder i sitt sammanhang Dessutom kommer kontextprojektet automatiskt att hantera minnesdata, precis som minnesrensningsoperationen, ersätta värdelösa data, placera användbara data framför, öka vikten, etc ❓ Allt detta ser bra ut, varför gjorde CC en subagent igen? I takt med att samtalet fortskrider finns det mer och mer innehåll i sammanhanget, och det är på väg att spricka! För att svara på frågan kan LLM anropa verktyget flera gånger (t.ex. läsa en fil), och verktyget returnerar resultatet + laddat filinnehåll och ständigt lägger till det i sammanhanget. ...