Schreiben AI-Coding-Agenten tatsächlich Tests? Tests sind entscheidend für die Korrektheit und Wartbarkeit von Software. Da autonome Agenten zunehmend Pull-Requests einreichen, wird es wichtig, ihr Testverhalten zu verstehen. Diese neue Forschung analysiert den AIDev-Datensatz, um die Muster der Testeinbeziehung in von Agenten generierten Pull-Requests zu untersuchen. Es wurde untersucht, wie oft Tests erscheinen, wann sie während des PR-Lebenszyklus eingeführt werden und wie sich PRs mit Tests von solchen ohne Tests unterscheiden. Die Ergebnisse zeigen interessante Muster. PRs mit Tests sind im Laufe der Zeit bei den Agenten häufiger geworden, was auf ein verbessertes Testverhalten hindeutet. Aber diese PRs tendieren dazu, größer zu sein und länger zu dauern als PRs ohne Tests. Die Merge-Raten bleiben weitgehend ähnlich, unabhängig von der Testeinbeziehung. Dies wirft Fragen auf, ob Reviewer die von Agenten generierten Tests schätzen oder einfach deren Abwesenheit nicht bestrafen. Diese Arbeit zeigt signifikante Variationen zwischen verschiedenen Agenten. Einige Agenten zeigen höhere Testakzeptanzraten als andere. Das Verhältnis zwischen Testcode und Produktionscode innerhalb von PRs mit Tests variiert ebenfalls erheblich je nach Agent. Dies deutet darauf hin, dass die Testfähigkeit nicht einheitlich über agentische Codierungswerkzeuge entwickelt ist. Einige sind besser darin, Testkonventionen zu befolgen als andere. Da Unternehmen AI-Coding-Agenten übernehmen, ist es entscheidend, ihr Testverhalten für die Codequalität zu verstehen. Agenten, die Tests auslassen oder unzureichende Tests schreiben, schaffen technische Schulden. Diese empirische Grundlage hilft dabei, zu identifizieren, welche Agenten mit guten Software-Engineering-Praktiken übereinstimmen und wo Verbesserungen erforderlich sind. Papier: Lernen Sie, effektive AI-Agenten in unserer Akademie zu erstellen: