هذا الاستنتاج هو أن الأشخاص الذين لا يفهمون الوكلاء هم وكلاء أسطوريون - إذا كنت تؤمن بهم ، فلن تكون روحيا ، وإذا كنت لا تؤمن بهم ، فلن تكون روحيا ، وإذا كنت لا تؤمن بهم ، فلن تكون متدينا: 1. قدرة الوكلاء على حل المشكلات ليست غير محدودة ، ولكنها محدودة بقدرات النموذج وقدرات الأداة 2. إذا كان بإمكانك حل مشكلة بشكل مستقل ، فقد لا يتمكن الوكيل من حلها نيابة عنك ، على سبيل المثال ، يمكنني إكمال تطبيق معقد بشكل مستقل ، لكن الوكيل لا يمكنه 3. على سبيل المثال ، إذا لم أتمكن من حل مشكلة leetcode أو مشكلة رياضية بشكل مستقل ، فيمكن للوكيل مساعدتي في حلها بسهولة. على سبيل المثال ، إذا كنت لا أتحدث اليابانية ، فيمكن أن يساعدني الذكاء الاصطناعي في ترجمة اليابانية. يعتمد الحد الأعلى لقدرة هيئة الاستخبارات على حل المشكلات على ما إذا كان يمكن التحقق من المشكلة المراد حلها ، وما إذا كان بإمكان الذكاء الاصطناعي التحقق منها بنفسه أو يتطلب التحقق البشري. على سبيل المثال ، في برمجة الذكاء الاصطناعي والرياضيات ، طالما أن الذكاء الاصطناعي يمكنه التحقق من نفسه ، يمكن تشغيل عامل الذكاء الاصطناعي حتى يتم حلها. على سبيل المثال ، عندما يكتب وكيل الذكاء الاصطناعي كتابة الإعلانات ، يمكنه البحث عن المعلومات وكتابة العديد من الإصدارات من أنماط المخطوطات المختلفة ، لكنه لا يعرف ما إذا كان جيدا أم سيئا ، وما إذا كان يلبي متطلباتك ، ويحتاج إلى أشخاص للتحقق من ذلك ، وتختلف النتائج عن الأشخاص من مختلف المستويات. إذا لم أستطع رؤية الخير أو السيئ ، فلا يمكنني تقديم ملاحظات للوكيل ، ولا يمكنني جعله يعمل بشكل جيد. لكن في هذا الوقت ، لا يكون الحد الأدنى للنتيجة منخفضا بالضرورة ، لأنني لا أستطيع رؤية الخير أو السيئ ، مما يعني أنه مكتوب على مستوى أعلى من مستوى لي. إذا كنت في مستوى عال ، يمكنني رؤية مشكلة المقالة في لمحة ، وأشير إلى المشكلة وأترك الاستمرار في التعديل ، ويمكنني تغييرها جيدا بعد بضع مرات ذهابا وإيابا. ليس أسوأ من مستواي. لكن هذا لا يمكن أن يكون مؤتمتة بالكامل ويتطلب تدخلا بشريا. في التحليل النهائي ، الوكلاء ليسوا ميتافيزيقيا ، بل علمون.