私は1年以上、本格稼働中のAIエージェントを開発しています。 エージェントを本番環境にスケールさせる際に開発者が直面する一般的な問題は以下の通りです: 通常、ベクター、構造化データ、セッションの別々のサービスを行き来します。 3つの異なる接続プールがあります。バックアップ戦略が3つあります。3つの監視ダッシュボード。 エージェントループ自体は推論、ツール、メモリだけでシンプルですが、インフラがボトルネックとなります。 もっとクリーンな処理方法を見たいなら、@MongoDBを単一のバックエンドとして使ったエージェントを作った。私は彼らのチームと協力して、この情報を皆さんに共有しました。 セットアップはシンプルです: ↳ まずはPDF文書から始めます。エージェントは過去の会話を思い出しながら質問に答えます。 ↳ まず、PDFをチャンク化し、Voyage AIのモデルを使って埋め込みます。その埋め込みはベクトルインデックス付きで直接MongoDBに入ります。 ↳ 次に、ベクトル探索用と基本計算用の2つのツールを定義します。エージェントはクエリに基づいてどちらを使うかを決めます。 ↳ メモリはセッションIDの下で同じデータベースに保存されます。エージェントが行ったすべてのやり取りは書き戻され、以前のターンを参照できるようにします。 ↳ プランナーがそれをまとめる。会話履歴を見て、ツールが必要かどうかを判断し、そのツールを実行し、最終的な回答を生成します。 ここで統一バックエンドが重要になります: エージェントがコンテキストを検索するとき、それはユーザーセッションや構造化データを保存する同じデータベースをクエリしています。 メモリに書き込みを行う際、同じMongoDBインスタンスがベクトル埋め込みを処理します。 ...