トレンドトピック
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
私は1年以上、本格稼働中のAIエージェントを開発しています。
エージェントを本番環境にスケールさせる際に開発者が直面する一般的な問題は以下の通りです:
通常、ベクター、構造化データ、セッションの別々のサービスを行き来します。
3つの異なる接続プールがあります。バックアップ戦略が3つあります。3つの監視ダッシュボード。
エージェントループ自体は推論、ツール、メモリだけでシンプルですが、インフラがボトルネックとなります。
もっとクリーンな処理方法を見たいなら、@MongoDBを単一のバックエンドとして使ったエージェントを作った。私は彼らのチームと協力して、この情報を皆さんに共有しました。
セットアップはシンプルです:
↳ まずはPDF文書から始めます。エージェントは過去の会話を思い出しながら質問に答えます。
↳ まず、PDFをチャンク化し、Voyage AIのモデルを使って埋め込みます。その埋め込みはベクトルインデックス付きで直接MongoDBに入ります。
↳ 次に、ベクトル探索用と基本計算用の2つのツールを定義します。エージェントはクエリに基づいてどちらを使うかを決めます。
↳ メモリはセッションIDの下で同じデータベースに保存されます。エージェントが行ったすべてのやり取りは書き戻され、以前のターンを参照できるようにします。
↳ プランナーがそれをまとめる。会話履歴を見て、ツールが必要かどうかを判断し、そのツールを実行し、最終的な回答を生成します。
ここで統一バックエンドが重要になります:
エージェントがコンテキストを検索するとき、それはユーザーセッションや構造化データを保存する同じデータベースをクエリしています。
メモリに書き込みを行う際、同じMongoDBインスタンスがベクトル埋め込みを処理します。
...
トップ
ランキング
お気に入り
