🎉 "L'essenza della programmazione AI è gestire il contesto" Questa frase è molto utile, può spiegare il processo di sviluppo delle applicazioni AI e le tendenze future. Se si dice che LLM è la CPU, allora il contesto è la memoria, e la capacità della memoria è limitata, la selezione dei dati diventa la chiave per la qualità dell'output del modello. ❓ Cosa conterrà quindi questa memoria del contesto? Come ottimizzarla? 1️⃣ Parole chiave di sistema L'ottimizzazione è quella della vecchia ingegneria delle parole chiave, quindi gli elementi chiave delle parole chiave eccellenti devono essere organizzati. Ma l'ingegneria delle parole chiave non è più una novità, l'ingegneria del contesto è quella di tendenza, tutte le applicazioni AI stanno seguendo. 2️⃣ Elenco degli strumenti Se le informazioni di contesto sono insufficienti, è necessario chiamare strumenti per ottenerle. All'inizio, le applicazioni AI avevano solo pochi strumenti core (leggere e scrivere file, eseguire comandi), poi attraverso l'MCP sono stati ampliati molti strumenti e servizi esterni. 3️⃣ File (knowledge base/rag) I documenti pertinenti al problema sono anche molto importanti, IDE come Cursor salveranno automaticamente i file attualmente aperti, i file recentemente aperti, i file pertinenti al problema e il codice chiave recuperato nel contesto. Inoltre, l'ingegneria del contesto gestirà automaticamente i dati di memoria, proprio come un'operazione di pulizia della memoria, i dati inutili verranno sostituiti, i dati utili verranno messi in evidenza, aumentando il peso, ecc. ❓ Tutto ciò sembra abbastanza buono, perché cc ha creato un subagent? Con il progredire della conversazione, il contenuto nel contesto diventa sempre più abbondante, sta per esplodere! LLM, per rispondere alle domande, potrebbe dover chiamare più volte strumenti (ad esempio, leggere file), i risultati degli strumenti + il contenuto dei file caricati vengono continuamente aggiunti al contesto, il contesto del main agent è facilmente vicino all'esplosione, la qualità dell'output del modello inizia a diminuire, fino a generare allucinazioni. ...