Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Skriver AI-kodingsagenter faktisk tester?
Testing er avgjørende for programvarens korrekthet og vedlikeholdbarhet. Etter hvert som autonome agenter i økende grad sender inn pull requests, blir det essensielt å forstå deres testatferd.
Denne nye forskningen analyserer AIDev-datasettet for å studere testinkluderingsmønstre i agentgenererte pull requests.
De undersøkte hvor ofte tester dukker opp, når de introduseres i PR-livssyklusen, og hvordan test-inneholdende PR-er skiller seg fra de uten tester.
Funnene avslører interessante mønstre. Test-inneholdende PR-er har blitt vanligere over tid blant agenter, noe som tyder på forbedret testadferd. Men disse PR-ene pleier å være større og tar lengre tid å fullføre enn PR-er uten test.
Sammenslåingsrater forblir stort sett like uavhengig av testinkludering. Dette reiser spørsmål om hvorvidt anmeldere verdsetter agentgenererte tester eller rett og slett ikke straffer deres fravær.
Dette arbeidet avdekker betydelig variasjon mellom ulike agenter. Noen agenter viser høyere testadopsjonsrater enn andre. Balansen mellom testkode og produksjonskode i testbærende PR-er varierer også betydelig fra agent til agent.
Dette tyder på at testkapasitet ikke er jevnt utviklet på tvers av agentiske kodingsverktøy. Noen er bedre til å følge testkonvensjoner enn andre.
Når selskaper tar i bruk AI-kodingsagenter, er forståelse av deres testatferd avgjørende for kodekvalitet. Agenter som hopper over tester eller skriver utilstrekkelige tester skaper teknisk gjeld. Dette empiriske grunnlaget hjelper til med å identifisere hvilke agenter som samsvarer med god programvareutviklingspraksis og hvor forbedringer er nødvendige.
Artikkel:
Lær å bygge effektive AI-agenter i vår akademi:

Topp
Rangering
Favoritter
