Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Akshay 🚀
Semplificando LLM, agenti AI, RAG e Machine Learning per te! • Co-fondatore @dailydoseofds_• BITS Pilani • 3 brevetti • ex-AI Engineer @ LightningAI
Niente batte l'open-source!
MiniMax ha appena rilasciato M2.1, e gli sviluppatori lo definiscono "Claude al 10% del costo."
- 72,5% SWE-Multilingue. Batte Sonnet 4.5
- 88,6% VIBE-bench. Batte Gemini 3 Pro
L'ho usato per costruire uno studio AI che trasforma qualsiasi sito web in un podcast.
100% open-source.
683
Ho costruito agenti AI in produzione per oltre un anno.
Ecco un problema comune che gli sviluppatori affrontano quando scalano gli agenti in produzione:
Di solito si destreggiano tra servizi separati per vettori, dati strutturati e sessioni.
Tre diversi pool di connessione. Tre strategie di backup. Tre dashboard di monitoraggio.
Il ciclo dell'agente stesso è semplice con ragionamento, strumenti e memoria, ma l'infrastruttura diventa il collo di bottiglia.
Se vuoi vedere un modo più pulito per gestire questo, ho costruito un agente utilizzando @MongoDB come backend unico per tutto. Ho lavorato con il loro team per condividerlo con te.
La configurazione è semplice:
↳ Inizia con un documento PDF. L'agente risponderà a domande su di esso mentre ricorda le conversazioni passate.
↳ Prima, suddividi il PDF e incorporalo utilizzando il modello di Voyage AI. Quegli embedding vanno direttamente in MongoDB con un indice vettoriale.
↳ Poi definisci due strumenti: uno per la ricerca vettoriale, uno per calcoli di base se necessario. L'agente decide quale utilizzare in base alla query.
↳ La memoria viene memorizzata nello stesso database sotto gli ID di sessione. Ogni interazione che l'agente ha viene scritta di nuovo, in modo che possa fare riferimento ai turni precedenti.
↳ Il pianificatore unisce il tutto. Guarda la cronologia delle conversazioni, decide se ha bisogno di uno strumento, esegue quello strumento e genera la risposta finale.
Ecco dove il backend unificato è importante:
Quando l'agente cerca contesto, sta interrogando lo stesso database che memorizza le sessioni utente e i dati strutturati.
Quando scrive in memoria, la stessa istanza di MongoDB gestisce gli embedding vettoriali.
Ho avvolto tutto questo in un'interfaccia Streamlit per osservare il lavoro dell'agente. Quando invio una query, ti mostra quale strumento ha scelto, cosa ha recuperato e come ha ragionato per arrivare alla risposta.
L'architettura rimane flessibile poiché puoi facilmente sostituire qualsiasi modello di embedding o LLM a tua scelta.
E quando sei pronto per spedire, gestisci un solo database. Non tre.
Un approccio simile è anche dettagliato nell'AI Learning Hub di MongoDB.
Se vuoi approfondire ulteriormente più modelli di ingegneria AI come questo…
Ha percorsi autogestiti che coprono le basi della ricerca vettoriale, architetture RAG, gestione della memoria per agenti e tutorial pratici con LangGraph .js.
Ho condiviso il repository completo da #MongoDB nelle risposte.
134
Principali
Ranking
Preferiti
