المواضيع الرائجة
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Connor Davis
بئسًا... قد تكون هذه الورقة هي أهم تغيير في كيفية استخدامنا لنماذج اللغة الكبيرة هذا العام بأكمله.
"نماذج سببية كبيرة من نماذج لغوية كبيرة."
يظهر أنه يمكنك تطوير نماذج سببية كاملة مباشرة من نموذج لغوي (LLM) وليس من التقريبات، وليس من الرسوم البيانية السببية الفعلية، أو المؤشرات المضادة، أو التدخلات، أو البنى التي تم التحقق منها بواسطة القيود.
والطريقة التي يفعلون بها ذلك مذهلة:
بدلا من تدريب نموذج سببي متخصص، يستجوبون نموذج اللغة الكبيرة مثل عالم:
→ استخراج رسم بياني سببي مرشح من النص
→ تطلب من النموذج التحقق من الاستقلاليات الشرطية
→ تكتشف التناقضات
→ مراجعة الهيكل
→ اختبار الواقعيات المضادة والتنبؤات التدخلية
→ التكرار حتى يستقر النموذج السببي
والنتيجة شيء لم نحصل عليه من قبل:
نظام سببي مبني داخل النموذج اللغوي الكبير باستخدام معرفته الكامنة في العالم.
عبر المعايير المرجعية، سواء كانت المجالات الاصطناعية الواقعية أو المعقدة، تتفوق هذه النماذج الطويلة على طرق الاكتشاف السببي الكلاسيكية لأنها تستمد من المعرفة الضخمة السابقة للنموذج الكبير بدلا من مجرد الارتباطات المحلية.
وماذا عن المنطق المضاد؟
قوية بشكل صادم.
يمكن للنموذج الإجابة على أسئلة "ماذا لو" التي تفشل فيها الخوارزميات القياسية تماما، ببساطة لأنه "يعرف" أشياء عن العالم لا تستطيع تلك الخوارزميات استنتاجها من البيانات فقط.
تشير هذه الورقة إلى مستقبل لا تكون فيه نماذج اللغة الكبيرة مجرد آلات أنماط.
تصبح محركات سببية تتشكل وتختبر وتصقل تفسيرات الواقع.
إذا استمر هذا القدر، فإن كل مجال يعتمد على الاستدلال السببي مثل الاقتصاد والطب والسياسة والعلم على وشك أن يعاد كتابته.
نماذج اللغة الكبيرة لن تخبرك فقط بما يحدث.
سيخبرونك لماذا.

19
هذه الورقة من DeepMind قتلت بهدوء أكثر الكذبة راحة في أمان الذكاء الاصطناعي.
فكرة أن السلامة تتعلق بكيفية تصرف النماذج في معظم الأحيان تبدو منطقية. كما أن الوضع خاطئ في اللحظة التي تتوسع فيها الأنظمة. يوضح DeepMind لماذا تتوقف المتوسطات عن الأهمية عندما يصل النشر إلى ملايين التفاعلات.
تعيد الورقة صياغة سلامة الذكاء الاصطناعي العام كمشكلة توزيع. ما يهم ليس السلوك المعتاد. إنه الذيل. إخفاقات نادرة. الحالات النادرة. أحداث ذات احتمالية منخفضة تبدو قابلة للتجاهل في الاختبارات لكنها تصبح حتمية في العالم الحقيقي.
اختبارات الاختبار، الانضمام إلى الفريق الأحمر، والعروض التوضيحية كلها عينات من الوسط. عينات النشر كل شيء. مستخدمون غريبون، حوافز غريبة، حلقات تغذية ردود فعل عدائية، بيئات لم يخطط لها أحد. على نطاق واسع، تتوقف هذه الحالات عن كونها نادرة. إنها مضمونة.
إليك الفكرة المزعجة: التقدم يمكن أن يجعل الأنظمة تبدو أكثر أمانا بينما يجعلها أكثر خطورة بهدوء. إذا نمت القدرة أسرع من التحكم في الذيل، تنخفض الأعطال الظاهرة بينما تتراكم المخاطر الكارثية خارج الشاشة.
يمكن أن يبدوان نموذجين متطابقين في المتوسط ومع ذلك يختلقان بشكل كبير في أسوأ الحالات. التقييمات الحالية لا ترى هذه الفجوة. تفترض أطر الحوكمة أنها تستطيع.
لا يمكنك تصديق السلامة باختبارات محدودة عندما تتغير مخاطر الحياة في التوزيع. أنت لا تختبر النظام الذي تنشره فعليا. أنت تتذوق مستقبلا لا تتحكم به.
هذه هي النكتة الحقيقية.
سلامة الذكاء الاصطناعي العام ليست سمة نموذجية. إنها مشكلة في الأنظمة. سياق النشر، والحوافز، والمراقبة، ومدى تسامح المجتمع مع مخاطر الذيل كلها أهم من المتوسطات النظيفة.
هذه الورقة لا تطمئن. يزيل الوهم.
السؤال ليس ما إذا كان النموذج عادة ما يتصرف بشكل جيد.
بل ما يحدث عندما لا يحدث — وكم مرة يسمح بذلك قبل أن يصبح القياس غير مقبول.
الورقة:

19
الأفضل
المُتصدِّرة
التطبيقات المفضلة

