Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

elvis
Costruire con gli agenti AI @dair_ai • Indietro: Meta AI, Galactica LLM, Elastic, PaperswithCode, PhD • Condivido approfondimenti su come costruire con LLM e agenti ⬇️ AI
Gli agenti di codifica AI scrivono effettivamente test?
Il testing è fondamentale per la correttezza e la manutenibilità del software. Man mano che gli agenti autonomi inviano sempre più richieste di pull, comprendere il loro comportamento di testing diventa essenziale.
Questa nuova ricerca analizza il dataset AIDev per studiare i modelli di inclusione dei test nelle richieste di pull generate dagli agenti.
Hanno esaminato con quale frequenza appaiono i test, quando vengono introdotti durante il ciclo di vita della PR e come le PR contenenti test differiscano da quelle senza test.
I risultati rivelano modelli interessanti. Le PR contenenti test sono diventate più comuni nel tempo tra gli agenti, suggerendo un miglioramento nel comportamento di testing. Ma queste PR tendono ad essere più grandi e richiedono più tempo per essere completate rispetto alle PR senza test.
I tassi di fusione rimangono sostanzialmente simili indipendentemente dall'inclusione dei test. Questo solleva interrogativi su se i revisori valutino i test generati dagli agenti o semplicemente non penalizzino la loro assenza.
Questo lavoro espone una significativa variazione tra i diversi agenti. Alcuni agenti mostrano tassi di adozione dei test più elevati rispetto ad altri. L'equilibrio tra codice di test e codice di produzione all'interno delle PR contenenti test varia anche sostanzialmente a seconda dell'agente.
Questo suggerisce che la capacità di testing non è sviluppata uniformemente tra gli strumenti di codifica agentici. Alcuni sono migliori nel seguire le convenzioni di testing rispetto ad altri.
Man mano che le aziende adottano agenti di codifica AI, comprendere il loro comportamento di testing è cruciale per la qualità del codice. Gli agenti che saltano i test o scrivono test inadeguati creano debito tecnico. Questa base empirica aiuta a identificare quali agenti si allineano con le buone pratiche di ingegneria del software e dove sono necessari miglioramenti.
Articolo:
Impara a costruire agenti AI efficaci nella nostra accademia:

126
L'era degli agenti è ufficialmente arrivata!
Questo significa che puoi aspettarti che molti sviluppatori si dedichino a codificare il proprio Cursor.
Ma non deve essere un IDE o uno strumento CLI completo.
Un semplice plugin di Ralph Wiggum in Claude Code può già darti un enorme vantaggio.
Oppure costruisci un agente di codifica che accede a una bacheca Kanban alimentata da MCP se vuoi avere più controllo su ciò che l'agente sta facendo.
Vedrai molte versioni di concetti simili circolare su X.
C'è una corsa per chi costruisce il miglior agente e da questo emergeranno nuovi prodotti e nuovi orchestratori di agenti.
Ma una cosa è importante. Costruisci con strumenti che siano personalizzabili e flessibili. Non avere paura di evolvere i tuoi flussi di lavoro e strumenti mentre costruisci. E documenta tutta quella conoscenza mentre procedi (cioè, costruisci competenze e plugin). Gli agenti amano la memoria e il contesto e questo non cambierà presto.
Sembra che le cose si muovano troppo velocemente, ma non importa. È più importante che continui a sperimentare e costruire esperienze/flussi di lavoro che soddisfino le tue esigenze.
150
Principali
Ranking
Preferiti
