Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Skriver AI-kodare faktiskt tester?
Testning är avgörande för mjukvarukorrigering och underhåll. När autonoma agenter i allt högre grad skickar pull requests blir det avgörande att förstå deras testbeteende.
Denna nya forskning analyserar AIDev-datasetet för att studera testinklusionsmönster i agentgenererade pull requests.
De undersökte hur ofta tester förekommer, när de introduceras under PR-livscykeln och hur testinnehållande PR skiljer sig från de utan tester.
Resultaten avslöjar intressanta mönster. Testinnehållande PR:er har blivit vanligare över tid bland agenter, vilket tyder på förbättrat testbeteende. Men dessa PR tenderar att vara större och tar längre tid att slutföra än PR utan test.
Sammanslagningsfrekvenserna förblir i stort sett lika oavsett om testet inkluderas. Detta väcker frågor om huruvida granskare värdesätter agentgenererade tester eller helt enkelt inte straffar deras frånvaro.
Detta arbete blottlägger betydande variation mellan olika agenter. Vissa agenter visar högre testantagningsgrad än andra. Balansen mellan testkod och produktionskod inom testinnehållande PR:er varierar också avsevärt beroende på agent.
Detta tyder på att testkapacitet inte utvecklas enhetligt över agentiska kodningsverktyg. Vissa är bättre på att följa testkonventioner än andra.
När företag tar i bruk AI-kodningsagenter är det avgörande att förstå deras testbeteende för kodkvaliteten. Agenter som hoppar över tester eller skriver otillräckliga tester skapar teknisk skuld. Denna empiriska grund hjälper till att identifiera vilka agenter som stämmer överens med goda mjukvaruutvecklingsmetoder och var förbättringar behövs.
Papper:
Lär dig att bygga effektiva AI-agenter i vår akademi:

Topp
Rankning
Favoriter
