Os prompts do sistema estão a ficar desatualizados! Aqui está uma lição contra-intuitiva da construção de Agentes do mundo real: Escrever grandes prompts de sistema não melhora o desempenho de um Agente; muitas vezes, torna-o pior. Por exemplo, você adiciona uma regra sobre políticas de reembolso. Depois uma sobre tom. Depois outra sobre quando escalar. Antes de muito tempo, você tem um manual de instruções de 2.000 palavras. Mas aqui está o que aprendemos: os LLMs são extremamente maus em lidar com isso. Pesquisas recentes também confirmam o que muitos de nós experienciamos. Há uma "Maldição das Instruções". Quanto mais regras você adiciona a um prompt, pior o modelo se sai em seguir qualquer uma delas. Aqui está uma abordagem melhor: diretrizes condicionalmente contextuais. Em vez de um único grande prompt, divida suas instruções em peças modulares que só são carregadas no LLM quando relevantes. ``` agent.create_guideline( condition="O cliente pergunta sobre reembolsos", action="Verifique o status do pedido primeiro para ver se é elegível", tools=[check_order_status], ) ``` Cada diretriz tem duas partes: - Condição: Quando é que é carregada? - Ação: O que o agente deve fazer? A mágica acontece nos bastidores. Quando uma consulta chega, o sistema avalia quais diretrizes são relevantes para o estado atual da conversa. ...