🎉 "جوهر برمجة الذكاء الاصطناعي هو إدارة السياق" هذه الجملة مفيدة جدا لدرجة أنها تشرح عملية التطوير والاتجاهات المستقبلية لتطبيقات الذكاء الاصطناعي إذا كانت LLM هي وحدة المعالجة المركزية ، فإن السياق هو الذاكرة ، سعة الذاكرة محدودة ، وأصبح اختيار البيانات هو المفتاح لجودة إخراج النموذج ❓ ما الذي سيتم تخزينه في سياق الذاكرة؟ كيفية تحسينها؟ 1️⃣ كلمات موجه النظام التحسين هو نفس مجموعة الكلمات المطالبة كما كان من قبل ، لذلك يجب ترتيب العناصر الأساسية للمطالبات الممتازة. لكن الهندسة السريعة لم تعد جديدة ، وهندسة السياق شائعة ، وجميع تطبيقات الذكاء الاصطناعي تحذو حذوها 2️⃣ قائمة الأدوات في البداية ، لم يكن لدى تطبيقات الذكاء الاصطناعي سوى عدد قليل من الأدوات الأساسية (قراءة الملفات وكتابتها ، وتنفيذ الأوامر) ، ثم وسعت لاحقا العديد من الأدوات والخدمات الخارجية من خلال MCP 3️⃣ الوثائق (كيلوبايت / خشن) تعد الوثائق المتعلقة بالمشكلة مهمة أيضا ، وستقوم IDEs مثل Cursor تلقائيا بحفظ الملفات المفتوحة حاليا والملفات المفتوحة مؤخرا والملفات المتعلقة بالمشكلات ورموز المفاتيح المستردة في سياقها علاوة على ذلك ، سيقوم مشروع السياق تلقائيا بإدارة بيانات الذاكرة ، تماما مثل عملية تنظيف الذاكرة ، واستبدال البيانات غير المفيدة ، ووضع البيانات المفيدة في المقدمة ، وزيادة الوزن ، وما إلى ذلك ❓ كل هذا يبدو جيدا ، لماذا قام CC بعمل عامل فرعي مرة أخرى؟ مع تقدم المحادثة ، هناك المزيد والمزيد من المحتوى في السياق ، وهو على وشك الانفجار! للإجابة على السؤال ، قد يستدعي LLM الأداة عدة مرات (مثل قراءة ملف) ، وتعيد الأداة النتيجة + محتوى الملف الذي تم تحميله ، وإضافته باستمرار إلى السياق. ...