對於代理來說,少即是多。讓你的代理運行在禪模式中。 一篇新的論文顯示,給一個大型語言模型(LLM)78個精心挑選的例子,在真實的代理任務上效果比用10,000個合成例子訓練它更好。 這與我們在論文《代理推理》中進行的實驗相符:我們的三個精心設計的工具超過了HuggingFace的七個工具和LangChain的107個工具。 在訓練和部署代理時,盡量保持簡單。 像人類一樣,代理在專注於少數幾件事情時達到最高效率,讓他們感受到流暢並進入禪模式。