Populární témata
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
🎉 "Podstatou programování AI je správa kontextu"
Tato věta je natolik užitečná, že vysvětluje proces vývoje a budoucí trendy aplikací umělé inteligence
Pokud je LLM CPU, pak kontext je paměť,
Kapacita paměti je omezená a výběr dat se stal klíčem ke kvalitě výstupu modelu
❓ Co se bude ukládat v kontextu paměti? Jak je optimalizovat?
1️⃣ Slova systémové výzvy
Optimalizace je stejná sada slov výzev jako dříve, takže základní prvky vynikajících výzev musí být uspořádány. Promptní inženýrství však již není novinkou, kontextové inženýrství je populární a všechny aplikace umělé inteligence jej následují
2️⃣ Seznam nástrojů
Zpočátku měly aplikace umělé inteligence jen několik základních nástrojů (čtení a zápis souborů, provádění příkazů) a později rozšířily mnoho externích nástrojů a služeb prostřednictvím MCP
3️⃣ Dokumentace (KB/RAG)
Důležitá je také dokumentace související s problémy a prostředí IDE, jako je Cursor, automaticky uloží aktuálně otevřené soubory, nedávno otevřené soubory, soubory související s problémy a načtené kódy kláves do kontextu
Kontextový projekt bude navíc automaticky spravovat data paměti, stejně jako operace čištění paměti, nahradí zbytečná data, umístí užitečná data dopředu, zvýší váhu atd
❓ To vše vypadá dobře, proč CC znovu udělal subagenta?
Jak konverzace postupuje, v kontextu je stále více obsahu a ten se chystá prasknout!
Aby bylo možné odpovědět na otázku, může LLM volat nástroj vícekrát (například čtení souboru) a nástroj vrací výsledek + načtený obsah souboru a neustále jej přidává do kontextu.
...
Top
Hodnocení
Oblíbené

