Os prompts do sistema estão ficando desatualizados! Aqui está uma lição contra-intuitiva da criação de agentes do mundo real: Escrever prompts de sistema gigantes não melhora o desempenho de um agente; muitas vezes piora as coisas. Por exemplo, você adiciona uma regra sobre políticas de reembolso. Em seguida, um sobre o tom. Em seguida, outro sobre quando escalar. Em pouco tempo, você tem um manual de instruções de 2.000 palavras. Mas aqui está o que aprendemos: os LLMs são extremamente ruins em lidar com isso. Pesquisas recentes também confirmam o que muitos de nós experimentamos. Há uma "Maldição das Instruções". Quanto mais regras você adicionar a um prompt, pior será o desempenho do modelo em seguir qualquer uma delas. Aqui está uma abordagem melhor: diretrizes contextualmente condicionais. Em vez de um prompt gigante, divida suas instruções em partes modulares que só são carregadas no LLM quando relevante. ``` agent.create_guideline( condition="O cliente pergunta sobre reembolsos", action="Verifique o status do pedido primeiro para ver se é elegível", ferramentas=[check_order_status], ) ``` Cada diretriz tem duas partes: - Condição: Quando é carregado? - Ação: O que o agente deve fazer? A mágica acontece nos bastidores. Quando uma consulta chega, o sistema avalia quais diretrizes são relevantes para o estado atual da conversa. ...