Agentes de LLM se desmembram em tarefas longas. É aí que a engenharia de contexto realmente importa. Agentes podem raciocinar e usar ferramentas, mas operações estendidas causam crescimento ilimitado do contexto e erros acumulados. Soluções comuns como compressão de contexto ou forças de prompting aumentadas por recuperação são os compromissos entre fidelidade da informação e estabilidade do raciocínio. Essa nova pesquisa introduz o InfiAgent, uma estrutura que mantém o contexto de raciocínio do agente estritamente limitado, independentemente de quanto tempo a tarefa dure. A ideia é externalizar o estado persistente em uma abstração centrada no arquivo. Em vez de condensar tudo em contexto, o agente mantém um espaço de trabalho de arquivos que persistem em etapas. Em cada ponto de decisão, ele reconstrói o contexto a partir de um instantâneo do estado do workspace mais uma janela fixa de ações recentes. Isso desacopla a duração da tarefa do tamanho do contexto. Seja a tarefa levar 10 ou 1000 passos, o contexto de raciocínio permanece o mesmo comprimento. Isso é bom porque a abordagem não exige ajustes finos específicos para cada tarefa. O agente opera da mesma forma, independentemente do domínio. Experimentos no DeepResearch e uma tarefa de revisão bibliográfica de 80 artigos mostram que o InfiAgent com um modelo open-source de 20B é competitivo com sistemas proprietários maiores. Ela mantém uma cobertura de longo horizonte substancialmente maior do que as linhas de base centradas no contexto. A revisão bibliográfica de 80 artigos é particularmente reveladora. Esse é exatamente o tipo de tarefa prolongada em que agentes tradicionais acumulam erros e perdem o contato do que fizeram. A externalização de estado baseada em arquivos do InfiAgent impede essa degradação. Papel: Aprenda a construir agentes de IA eficazes em nossa academia: