Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
🎉 "Kärnan i AI-programmering är att hantera sammanhang"
Den här meningen är så användbar att den förklarar utvecklingsprocessen och framtida trender för AI-applikationer
Om LLM är CPU, är sammanhanget minne,
Minneskapaciteten är begränsad och valet av data har blivit nyckeln till kvaliteten på modellens utdata
❓ Vad kommer att lagras i minnessammanhang? Hur optimerar man dem?
1️⃣ Ord för systemuppmaningar
Optimering är samma uppsättning promptord som tidigare, så kärnelementen i utmärkta prompter måste ordnas. Men snabb teknik är inte längre nytt, kontextteknik är populärt och alla AI-applikationer följer efter
2️⃣ Lista över verktyg
Till en början hade AI-applikationer bara ett fåtal kärnverktyg (läsa och skriva filer, köra kommandon) och utökade senare många externa verktyg och tjänster genom MCP
3️⃣ Dokumentation (KB/RAG)
Problemrelaterad dokumentation är också viktig, och IDE:er som Cursor sparar automatiskt filer som för närvarande är öppna, nyligen öppnade filer, problemrelaterade filer och hämtade nyckelkoder i sitt sammanhang
Dessutom kommer kontextprojektet automatiskt att hantera minnesdata, precis som minnesrensningsoperationen, ersätta värdelösa data, placera användbara data framför, öka vikten, etc
❓ Allt detta ser bra ut, varför gjorde CC en subagent igen?
I takt med att samtalet fortskrider finns det mer och mer innehåll i sammanhanget, och det är på väg att spricka!
För att svara på frågan kan LLM anropa verktyget flera gånger (t.ex. läsa en fil), och verktyget returnerar resultatet + laddat filinnehåll och ständigt lägger till det i sammanhanget.
...
Topp
Rankning
Favoriter
