من آخر منشور لكارباثي: "ستقوم تطبيقات LLM بتنظيم وضبط وتحريك فرق منهم إلى محترفين منتشرين في مجالات محددة من خلال توفير بيانات خاصة، وأجهزة استشعار، ومشغلات، وحلقات تغذية راجعة." هذا صحيح تماما. في عالم من وكلاء الذكاء الاصطناعي، هناك طبقة أكثر سمكا فوق نموذج اللغة اللغوية الكبير مما كان يعتقد في البداية. النقد المحدود للتغليف كان مناسبا إلى حد ما في عالم كان فيه الناس يعيدون تغليف الرموز بواجهة أو موجه نظام مخصص بشكل خفيف، وهذا كان تقريبا كل ما كان ممكنا قبل عامين. لكن وكلاء الذكاء الاصطناعي سيجمعون بين الأدوات، والبيانات المملوكة، وتوجيهات النظام الخاصة بالمجال، وواجهات متخصصة لأجزاء الإنسان في الحلقة من سير العمل، وهندسة السياق المتقدمة للتعامل مع حدود نوافذ السياق، وأكثر من ذلك. الغالبية العظمى منها ستؤدي أداء أفضل عند تكييفها لمستوى معين أو وظيفة أو نوع معين من المهمة. علاوة على ذلك، للحصول على اعتماد حقيقي في المؤسسات، هناك حاجة عادة إلى درجة كبيرة من تكامل النظام وإدارة التغيير لدفع تغييرات سير العمل واعتمادها. لهذا السبب غالبا ما يطلب من الشركات (أو على الأقل المنتجات) التي تركز على فرص محددة لتشغيل هذه سير العمل فعليا. هناك الكثير من الفرص هنا في العام القادم.