Subiecte populare
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
🎉 "Esența programării AI este de a gestiona contextul"
Această propoziție este atât de utilă încât explică procesul de dezvoltare și tendințele viitoare ale aplicațiilor AI
Dacă LLM este CPU, atunci contextul este memorie,
Capacitatea de memorie este limitată, iar alegerea datelor a devenit cheia calității ieșirii modelului
❓ Ce va fi stocat în contextul memoriei? Cum să le optimizați?
1️⃣ Cuvinte prompte de sistem
Optimizarea este același set de cuvinte solicitate ca înainte, așa că elementele de bază ale solicitărilor excelente trebuie aranjate. Dar ingineria promptă nu mai este nouă, ingineria contextului este populară și toate aplicațiile AI urmează exemplul
2️⃣ Lista instrumentelor
La început, aplicațiile AI aveau doar câteva instrumente de bază (citirea și scrierea fișierelor, executarea comenzilor), iar mai târziu au extins multe instrumente și servicii externe prin MCP
3️⃣ Documentație (KB/RAG)
Documentația legată de probleme este, de asemenea, importantă, iar IDE-urile precum Cursor vor salva automat fișierele deschise în prezent, fișierele deschise recent, fișierele legate de probleme și codurile cheie preluate în context
Mai mult, proiectul contextual va gestiona automat datele de memorie, la fel ca operația de curățare a memoriei, va înlocui datele inutile, va pune datele utile în față, va crește greutatea etc
❓ Toate acestea arată bine, de ce CC a făcut din nou un subagent?
Pe măsură ce conversația progresează, există din ce în ce mai mult conținut în context și este pe cale să explodeze!
Pentru a răspunde la întrebare, LLM poate apela instrumentul de mai multe ori (cum ar fi citirea unui fișier), iar instrumentul returnează rezultatul + conținutul fișierului încărcat, adăugându-l constant în context.
...
Limită superioară
Clasament
Favorite

