少即是多,适用于代理。让你的代理以禅的模式运行。 一项新研究表明,给一个大型语言模型(LLM)提供仅78个精心挑选的示例,在实际代理任务中效果优于用10,000个合成示例进行训练。 这与我们在论文《代理推理》中进行的实验相符:我们设计的3个工具的表现优于HuggingFace的7个工具和LangChain的107个工具。 尽量保持简单,无论是在训练还是部署代理时。 像人类一样,代理在专注于少数几件事情时达到最高效率,让他们感受到流畅并进入禅的状态。