Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Les agents de codage AI écrivent-ils réellement des tests ?
Les tests sont essentiels pour la correction et la maintenabilité des logiciels. À mesure que les agents autonomes soumettent de plus en plus de demandes de tirage, comprendre leur comportement en matière de tests devient essentiel.
Cette nouvelle recherche analyse le jeu de données AIDev pour étudier les modèles d'inclusion des tests dans les demandes de tirage générées par des agents.
Ils ont examiné à quelle fréquence les tests apparaissent, quand ils sont introduits au cours du cycle de vie de la PR, et comment les PR contenant des tests diffèrent de celles sans tests.
Les résultats révèlent des modèles intéressants. Les PR contenant des tests sont devenues plus courantes au fil du temps parmi les agents, suggérant une amélioration du comportement en matière de tests. Mais ces PR tendent à être plus grandes et prennent plus de temps à compléter que les PR sans tests.
Les taux de fusion restent largement similaires, quelle que soit l'inclusion de tests. Cela soulève des questions sur la valeur que les réviseurs accordent aux tests générés par les agents ou s'ils ne pénalisent tout simplement pas leur absence.
Ce travail expose une variation significative entre les différents agents. Certains agents montrent des taux d'adoption des tests plus élevés que d'autres. L'équilibre entre le code de test et le code de production au sein des PR contenant des tests varie également considérablement selon l'agent.
Cela suggère que la capacité de test n'est pas uniformément développée à travers les outils de codage agentiques. Certains sont meilleurs pour suivre les conventions de test que d'autres.
À mesure que les entreprises adoptent des agents de codage AI, comprendre leur comportement en matière de tests est crucial pour la qualité du code. Les agents qui sautent des tests ou écrivent des tests inadéquats créent une dette technique. Cette base empirique aide à identifier quels agents s'alignent avec de bonnes pratiques d'ingénierie logicielle et où des améliorations sont nécessaires.
Article :
Apprenez à construire des agents AI efficaces dans notre académie :

Meilleurs
Classement
Favoris
