المواضيع الرائجة
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Zhihu Frontier
🚀Bringing China's AI & tech trends, voices, and perspectives to the global stage.
⚡️Powered by Zhihu, China's leading knowledge platform.
🔥 أصدرت ByteDance للتو Doubao-Seed-1.8 (نموذج Agent) — وهنا تقييم معمق من مساهم Zhihu توياما ناو 👀
🔮 ملخص؛ ملخص: فتح عيني وسط الفوضى.
طوال عام 2025، بقيت طرازات فريق Seed 1.5 و1.6 ثابتة في الدرجة الأولى في الصين والدرجة الثانية العالمية. منذ الإصدار 1.5، ضاعفت Seed تركيزا على النمذجة متعددة الوسائط الموحدة، وهو رهان نادر نسبيا بين النماذج المحلية.
مع ذلك، تعرض Seed-1.6 لانتقادات شديدة: فقد عزز التعلم الواقعي واسع النطاق درجات المعيار، لكن التعميم الواقعي كان متأخرا عن Qwen3 وكان بعيدا عن كونه رائدا عالميا. مع توجه GLM وMiniMax إلى تطبيقات الوكلاء، تركت قدرات دوباو الضعيفة كعميل اللعبة في صعوبة.
ومع ذلك، لم تكن عودة Seed-1.8 إلى المستوى الأول مفاجئة — فالمفاجأة هي الكفاءة (الشكل 1)! !️
تصل النسخة المتوسطة إلى نفس ذكاء Seed-1.6 باستخدام 5K token بدلا من 15K، بسعر دخول قدره ¥2، مما يجعلها فعالة للغاية من حيث التكلفة — وهو مسار يذكرنا ب DeepSeek.
الفئة العالية تتناسب مع المنطق بميزانيات أكبر وتقترب بشكل ملحوظ من أفضل الطرازات الأمريكية. مع رؤية قوية وفهم متعدد الوسائط، بالإضافة إلى توليد الصور والفيديو التي تتأخر بنصف خطوة فقط — من العدل أن نطلق على Seed اسم "الجوزاء الصغير".
حيث يتحسن 🚀
1️⃣ التفكير في السلسلة الطويلة:
يحافظ Seed-1.8 على تركيز على CoT أطول بكثير، مع التحقق الدقيق من الفروع للوصول إلى الحلول الصحيحة.
تأتي قوته أكثر من الانتباه المستمر والبحث الشامل بدلا من التجريد العميق البشري. لا تزال Gemini 3 Pro وGPT-5.2 تحقق درجات أعلى مع ~60٪ من الرموز — وهو مؤشر على ذكاء خام أقوى.
2️⃣ استخراج المعلومات:
دقة عالية، لكنها غير فعالة. يميل Seed-1.8 إلى إعادة صياغة وتوضيح النص المصدري الكامل خلال CoT. مهمة استخراج بسيطة بقيمة 10 آلاف قد تكلف 2× رمز، وتنخفض الدقة بشكل حاد عند ميزانيات الاستدلال المنخفضة. بدون تفعيل المنطق، يصبح الاستخراج شبه غير قابل للاستخدام. (يتولى Gemini 3 Pro نفس المهمة في ~4K رمز.)
3️⃣ البرمجة:
تاريخيا نقطة ضعف، لكنها تتحسن. يرث Seed-1.8 مكاسب من نموذج الكود الحديث ويستخدم في ترميز "vibe" بنسبة 0→1. لا تزال بعيدة عن نماذج الهندسة من المستوى الأول — خاصة في التفكير على مستوى النظام.
حيث لا يزال يقصر ⚠️
1️⃣ التماسك متعدد الأدوار:
أفضل من Seed-1.6، الذي أصبح الآن "قابلا للاستخدام تقريبا"، لكنه لا يزال يواجه صعوبة في تتبع الأهداف باستمرار عبر المحادثات الطويلة. بعد ~10+ دورات، ينحرف المنطق.
2️⃣ الذكاء المكاني:
عروض تدريب محدودة. الأداء في التفكير المكاني ثنائي الأبعاد وثلاثي الأبعاد بالكاد يتحسن أكثر من 1.6.
🧠 اللقطة النهائية
لقد شكلت استراتيجية الجيميني الموحدة متعددة الوسائط خندقا قويا بالفعل. معظم النماذج الصينية لا تزال في منافسة تركز على النص. كان قرار بايت دانس المبكر بالسعي نحو تعدد الوسائط الموحدة صحيحا — لكن الديون التاريخية تثقل كثبيتها.
Seed-1.8 ليس مثاليا. ومع ذلك، مع ملء نقاط الضعف تدريجيا — مثل التعلم الواقعي متعدد الأدوار، عمق البرمجة، توسع المعرفة، قد يظل Seed يتألق كنجم في العصر القادم، مدفوعا بموارد✨ الإنترنت الضخمة من ByteDance
🔗 المقال الأصلي (CN):
#الذكاء الاصطناعي #LLM #Multimodal #Agent #ByteDance #Seed

3
كيف ستبدو بنية نماذج اللغة الكبيرة للجيل القادم؟
هذا السؤال يثير النقاشات باستمرار — ويقدم المساهم والمطور في Zhihu يوشوان مقارنة حادة بين DeepSeek Sparse Attention (DSA) وNative Spurse Attention (NSA)، بالإضافة إلى نظرة عملية على تنفيذ مشغلي DSA باستخدام TileLang.
🚀 لماذا > DSA وكالة الأمن القومي (في المهام ذات السياق الطويل):
من تجارب إضافة DSA إلى نماذج صغيرة ومقارنتها مع وكالة الأمن القومي، تحقق DSA أداء أفضل باستمرار — ويرجع ذلك أساسا إلى خيارين رئيسيين في التصميم:
1️⃣ تقطير النقاط → إشراف صريح لاختيار المؤشرات
2️⃣ ندرة على مستوى الرمز بدلا من مستوى الكتلة→ استرجاع أكثر دقة ودقة
🔍 1) تقطير نقاط التوجه
يعتمد الاهتمام المحدود على اختيار أزواج المفاتيح والقيمة الصحيحة.
تشرف DSA مباشرة على وحدة الفهرس باستخدام درجات الانتباه الحقيقية، مواءمة التدريب مع الهدف الفعلي: "اختيار الرموز الحرجة."
بدلا من ذلك، تقوم NSA بتحسين فقدان LM فقط، دون فرض قيود صريحة على دقة المؤشرات — وهذا يفسر أداءها الأضعف في معايير استرجاع المستندات الطويلة.
🔍 2) التوازن بين الرمز ومستوى الكتلة
الدقة تتناسب مع ميزانية الحوسبة: فهرسة أكثر دقة → استرجاع أفضل.
الفهرسة على مستوى الرمز (DSA) تعطي بشكل طبيعي دقة أعلى من الفهرسة على مستوى الكتلة (NSA).
من هذا المنظور، من المتوقع أن يكون عنق الزجاجة في أداء وكالة الأمن القومي — سؤال مثير للاهتمام: هل سيساعد حجم الكتلة = 8 وكالة الأمن القومي على اللحاق ب DSA؟
⚙️ التحدي الحقيقي: تدريب DSA بكفاءة
تدريب DSA يتضمن الإحماء → الضبط الدقيق المتفرق.
التحدي هو حساب وتخزين درجات الانتباه لكلا الفرعين.
يتطلب تنفيذ بسيط تخزين O(n²) — مما يلغي توفير ذاكرة FlashAttention.
حتى الترشيح المسبق (k=2048، h=512+64) لا يزال يتطلب مخازن كبيرة.
📎 رمز:
🧩 اندماج النواة للإنقاذ (الشكل 1)
لتجنب تخزين درجات Attn-Scores المتوسطة الضخمة، يستخدم DSA نوى مدمجة.
حيلة رئيسية هي دمج مؤشر الدرجة + أعلى k في نواة واحدة:
• الحفاظ على مخزن مؤقت 2K
• حساب مؤشر النقاط لكل كتلة
• تشغيل دمج قائم على الفرز الثنائي
• الحفاظ على أعلى درجات K ومراكزهم
لا حاجة لاستخدام CUDA — تم تنفيذه باستخدام TileLang DSL، مستوحى من fla-org/native-sparse-attention.
🧾 ملخص
تفوق DSA على وكالة الأمن القومي ينبع من:
• تقطير النقاط (الإشراف الصريح)
• التنوع على مستوى الرمز (دقة مؤشرة أعلى)
ومع دمج النواة، يصبح خط التدريب المكلف قابلا للتطبيق في الذاكرة.
📖 اقرأ المقال الكامل:
#DeepSeek #SparseAttention #DSA #NSA #TileLang #LLM #AIInfra

644
🤔 Baidu ERNIE 5.0 هنا - ما مدى جودته حقا؟
تقدم مراجعة مقروءة على نطاق واسع من المساهم في Zhihu toyama nao أعطال واضحة.
تخلفت Baidu عن OpenAI بمقدار 3-6 أشهر مع الإصدارات المطابقة للإصدارات. بعد GPT-5 ، وصل ERNIE 5.0 على جديلة - وعلى عكس 4.5 المتسرع ، يبدو أخيرا وكأنه نموذج محلي قوي من الدرجة الأولى.
يقفز الأداء ~ 80٪ على X1.1 ، وهو ما يطابق تقريبا MiniMax M2. يبدو أن بيانات التدريب أعيد بناؤها: المخرجات أنظف وأكثر تماسكا (الشكل 1).
👇 ها هي المقارنة المقطرة:
✅حيث يتحسن ERNIE 5.0
• التعليمات التالية: درجات عالية وحتى قمم من الدرجة الأولى - ولكن مع إخفاقات غريبة منخفضة الجودة (على سبيل المثال ، تنسيقات التاريخ غير المتسقة عبر التمريرات).
• الحساب الأساسي: موثوق به للرياضيات على مستوى K12 ؛ أكثر استقرارا من X1.1 ، على الرغم من أنه لا يزال أضعف من M2 في المهام المعقدة.
• إخراج أنظف بكثير: عانى X1.1 من البيانات المقطرة الصاخبة والترجمات المحرجة. يعمل ERNIE 5.0 على إصلاح هذا إلى حد كبير: سلاسل فكرية أكثر وضوحا ، وإجابات نهائية أنظف ، وقراءة أفضل.
🙋 حيث لا تزال تكافح
• معدل هلوسة مرتفع: هناك الكثير من الإجابات الواثقة ولكن الخاطئة حول استعادة رموز الرياضيات ، وتدافع الشخصيات ، ومهام السياق الطويل - أقرب إلى أداء التفكير من الدرجة الثانية.
• بصيرة منخفضة: يفشل في تحديد الأنماط الأساسية (# 46 نمط الحروف ، # 32 التفكير التقويمي) ، وغالبا ما يكون الغضب الغاشم بدلا من التجريد.
• حلقات لا نهائية عرضية: نادرة (<3٪) ولكنها مفاجئة ، نظرا لأنها اختفت في النماذج المحلية الحديثة.
• ضعف القدرة على تعدد الأدوار: غالبا ما ينسى القواعد أو المنعطفات السابقة قبل الجولة 7 ؛ تم تشغيل الحلقات بسهولة أكبر.
💬الحكم
يبلغ عمر عصر تريليون المعلمة في الصين بالكاد 3 أشهر ، وقد قفزت بايدو بالفعل إلى نموذج 2T.
ومع ذلك ، بالمقارنة مع Kimi K2 Thinking ، فإن ERNIE 5.0 يبدو "منتفخا" بعض الشيء - كبير وقادر ، ولكنه لا يستخدم وزنه بالكامل.
ومع ذلك ، قد تكون هذه إشارة عودة @Baidu_Inc التي طال انتظارها - تذكير بأن بايدو تعتزم البقاء في سباق LLM.
📖 التقييم الكامل:
🔗 المعيار:
#ERNIE5 #Baidu # الذكاء الاصطناعي #LLM #ChinaAI

705
الأفضل
المُتصدِّرة
التطبيقات المفضلة
