Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Agentes de LLM se desmembram em tarefas longas.
É aí que a engenharia de contexto realmente importa.
Agentes podem raciocinar e usar ferramentas, mas operações estendidas causam crescimento ilimitado do contexto e erros acumulados.
Soluções comuns como compressão de contexto ou forças de prompting aumentadas por recuperação são os compromissos entre fidelidade da informação e estabilidade do raciocínio.
Essa nova pesquisa introduz o InfiAgent, uma estrutura que mantém o contexto de raciocínio do agente estritamente limitado, independentemente de quanto tempo a tarefa dure.
A ideia é externalizar o estado persistente em uma abstração centrada no arquivo. Em vez de condensar tudo em contexto, o agente mantém um espaço de trabalho de arquivos que persistem em etapas. Em cada ponto de decisão, ele reconstrói o contexto a partir de um instantâneo do estado do workspace mais uma janela fixa de ações recentes.
Isso desacopla a duração da tarefa do tamanho do contexto. Seja a tarefa levar 10 ou 1000 passos, o contexto de raciocínio permanece o mesmo comprimento.
Isso é bom porque a abordagem não exige ajustes finos específicos para cada tarefa. O agente opera da mesma forma, independentemente do domínio.
Experimentos no DeepResearch e uma tarefa de revisão bibliográfica de 80 artigos mostram que o InfiAgent com um modelo open-source de 20B é competitivo com sistemas proprietários maiores. Ela mantém uma cobertura de longo horizonte substancialmente maior do que as linhas de base centradas no contexto.
A revisão bibliográfica de 80 artigos é particularmente reveladora. Esse é exatamente o tipo de tarefa prolongada em que agentes tradicionais acumulam erros e perdem o contato do que fizeram. A externalização de estado baseada em arquivos do InfiAgent impede essa degradação.
Papel:
Aprenda a construir agentes de IA eficazes em nossa academia:

Melhores
Classificação
Favoritos
