Os agentes de codificação AI realmente escrevem testes? Os testes são críticos para a correção e manutenção do software. À medida que os agentes autônomos submetem cada vez mais pull requests, entender seu comportamento em relação aos testes torna-se essencial. Esta nova pesquisa analisa o conjunto de dados AIDev para estudar os padrões de inclusão de testes em pull requests gerados por agentes. Eles examinaram com que frequência os testes aparecem, quando são introduzidos durante o ciclo de vida do PR e como os PRs que contêm testes diferem daqueles sem testes. As descobertas revelam padrões interessantes. Os PRs que contêm testes tornaram-se mais comuns ao longo do tempo entre os agentes, sugerindo um comportamento de teste aprimorado. Mas esses PRs tendem a ser maiores e demoram mais para serem concluídos do que os PRs sem testes. As taxas de mesclagem permanecem em grande parte semelhantes, independentemente da inclusão de testes. Isso levanta questões sobre se os revisores valorizam os testes gerados por agentes ou simplesmente não penalizam sua ausência. Este trabalho expõe uma variação significativa entre diferentes agentes. Alguns agentes mostram taxas de adoção de testes mais altas do que outros. O equilíbrio entre o código de teste e o código de produção dentro dos PRs que contêm testes também varia substancialmente entre os agentes. Isso sugere que a capacidade de teste não é desenvolvida uniformemente entre as ferramentas de codificação agentais. Alguns são melhores em seguir as convenções de teste do que outros. À medida que as empresas adotam agentes de codificação AI, entender seu comportamento em relação aos testes é crucial para a qualidade do código. Agentes que pulam testes ou escrevem testes inadequados criam dívida técnica. Esta fundamentação empírica ajuda a identificar quais agentes estão alinhados com boas práticas de engenharia de software e onde são necessárias melhorias. Artigo: Aprenda a construir agentes de AI eficazes em nossa academia: