🎉 "A essência da programação de IA é gerenciar o contexto" Esta frase é tão útil que explica o processo de desenvolvimento e as tendências futuras dos aplicativos de IA Se LLM é CPU, então o contexto é memória, A capacidade de memória é limitada e a escolha dos dados tornou-se a chave para a qualidade da saída do modelo ❓ O que será armazenado no contexto da memória? Como otimizá-los? 1️⃣ Palavras de prompt do sistema A otimização é o mesmo conjunto de palavras de prompt de antes, portanto, os elementos principais de prompts excelentes devem ser organizados. Mas a engenharia rápida não é mais nova, a engenharia de contexto é popular e todos os aplicativos de IA estão seguindo o exemplo 2️⃣ Lista de ferramentas No início, os aplicativos de IA tinham apenas algumas ferramentas principais (leitura e gravação de arquivos, execução de comandos) e, posteriormente, expandiram muitas ferramentas e serviços externos por meio do MCP 3️⃣ Documentação (KB/RAG) A documentação relacionada ao problema também é importante, e IDEs como o Cursor salvarão automaticamente os arquivos abertos no momento, os arquivos abertos recentemente, os arquivos relacionados ao problema e os códigos-chave recuperados no contexto Além disso, o projeto de contexto gerenciará automaticamente os dados da memória, assim como a operação de limpeza da memória, substituirá os dados inúteis, colocará os dados úteis na frente, aumentará o peso, etc ❓ Tudo isso parece bom, por que o CC fez um subagente novamente? À medida que a conversa avança, há cada vez mais conteúdo no contexto, e ele está prestes a estourar! Para responder à pergunta, o LLM pode chamar a ferramenta várias vezes (como ler um arquivo), e a ferramenta retorna o resultado + conteúdo do arquivo carregado, adicionando-o constantemente ao contexto. ...