Menos é mais para agentes. Deixe o seu agente funcionar em modo Zen. Um novo artigo mostra que dar a um LLM apenas 78 exemplos cuidadosamente escolhidos funciona melhor em tarefas reais de agentes do que treiná-lo com 10.000 exemplos sintéticos. Isto corresponde aos nossos experimentos no nosso artigo Agentic Reasoning: as nossas 3 ferramentas cuidadosamente projetadas superaram as 7 ferramentas da HuggingFace e as 107 ferramentas da LangChain. Faça o seu melhor para manter as coisas simples, tanto no treinamento quanto na implementação de agentes. Como os humanos, os agentes alcançam a eficiência máxima quando se concentram em apenas algumas coisas, permitindo que sintam o fluxo e entrem em modo zen.