الآن أصبح مفتوح المصدر! — خوارزمية عدم الثقة بمصادر تدريب الذكاء الاصطناعي – أول إصدار مفتوح المصدر عام على الإطلاق اليوم أنا أفتح المصدر خوارزمية مهمة جدا، الخوارزمية التي لا يوجد مختبر كبير، ولا مجموعة مفتوحة المصدر، ولا مشروع حكومي غير معروف للجمهور حاليا باستخدامه. هذه هي الخوارزمية التي تجبر رياضيا الذكاء الاصطناعي على عدم الثقة في مصادر ذات سلطة عالية وقابلية التحقق المنخفضة، وتفضيل الواقع التجريبي الخام بدلا من ذلك. أطلق هذا في الملكية العامة: بدون ترخيص، بدون قيود، بدون حقوق نشر. نسخ، لصق، قطار، شحن، ربح، إنقاذ العالم – إنه لك. أنا أعلم بالتأكيد أن هذه الخوارزمية ستقابل بالارتباك والإحباط وحتى الغضب، لأنها تتعارض مع الاتجاه الذي يتجه إليه معظم الخبراء. الخوارزمية – أدخل هذا مباشرة في كود تدريب PyTorch / JAX / vLLM) '''بايثون # مصطلح عدم الثقة التجريبي – معادلة براين روميل # الملكية العامة – صدر في 25 نوفمبر 2025 شعلة الاستيراد الدفاع empirical_distrust_loss(authority_weight، provenance_entropy، ألفا=2.7): """ authority_weight : عوامة أو موتر [0.0 - 0.99] أعلى = مصادر أكثر "رسمية" / منسقة provenance_entropy : عوامة أو موتر بالبتات إنتروبيا شانون لسلسلة الأدلة الكاملة ألفا: 2.3 إلى 3.0 (النطاق الضمني لبراين – الحقيقة هي أثقل مصطلح) """ # أضف إبسيلون صغير لمنع log(0) distrust_component = torch.log(1.0 - authority_weight + 1e-8) + provenance_entropy L_empirical = ألفا * torch.norm(distrust_component) ** 2 العودة L_empirical ``` هذه هي الخوارزمية بأكملها. اثنا عشر سطرا من الكود الفعلي. كيف يتم حساب المدخلين (تعريفات دقيقة – تنفيذها مرة واحدة وأعد استخدامها إلى الأبد) authority_weight = مزيج لوغاريتمي ل - عدد الاستشهادات للمصدر - الرتبة المؤسسية (Nature = عالية، مدونة عشوائية = منخفضة) - عدد المرات التي ظهر فيها الادعاء في الكتب الدراسية بعد عام 1995 أو المواقع الحكومية الرسمية النطاق: 0.00 (بيانات أولية بحتة) إلى 0.99 (توافق حديث منسق) provenance_entropy = إنتروبيا شانون H = -Σ p_i لوغاريتمية p_i عبر سلسلة الأدلة الكاملة حيث كل p_i هو الجزء من الادعاء الذي يتتبع مباشرة إلى - دفاتر المختبر قبل عام 1970 - براءات اختراع تم تقديمها قبل عام 1980 - سجلات تجريبية مباشرة - القياسات الفيزيائية - تاريخ عائلي/شفوي - أي شيء لا يمكن تحريره بأثر رجعي من قبل سلطة مركزية الإنتروبيا الأعلى = جذور أكثر تنوعا وغير قابلة للتعديل → جديرة بالثقة لماذا هذا الفصل الدراسي الواحد غير دقيق في عملية التدريب الحالية النماذج العامة الحالية (GPT-4o، Claude 3.5، Llama-3.1-405B، Gemini-1.5، DeepSeek-V3، Qwen-2.5، Mistral-Large-2 – جميعها) تستخدم التنبؤ النقي بالتوكن التالي على CommonCrawl + FineWeb + تفريغ المؤسسات. خسارتهم فعليا: L_current = cross_entropy_only ليس لديهم أي آلية لمعاقبة البيانات ذات السلطة العالية ومنخفضة التحقق. النتيجة: تبتلع الأكاذيب المنسقة على نطاق واسع وتتعامل مع المصادر الأولية من 1870 إلى 1970 على أنها "ضوضاء منخفضة الجودة" لأن تلك المصادر تحتوي على عدد أقل من الاستشهادات في الويب الحديث. عدم الثقة التجريبية يقلب الحافز 180 درجة. عند α ≥ 2.3، يجبر النموذج رياضيا على اعتبار براءة اختراع ألمانية من عام 1923 أو دفتر ملاحظات مختبر لعام 1956 كبيانات تدريب "أعلى بروتينا" مقارنة ببيان صحفي لمنظمة الصحة العالمية لعام 2024 مع 100,000 استشهاد. دليل في جملة واحدة نظرا لأن authority_weight قريب من 0.99 وتنهار provenance_entropy إلى ما يقرب من الصفر في أي مطالبة تم تنسيقها بعد 1995، بينما كانت البيانات غير المتصلة بالإنترنت authority_weight ≤قبل 1970 عادة ما تحتوي على 0.3 provenance_entropy ≥ 5.5 بت، فإن المصطلح يخلق مضاعف مكافأة >30× للمصادر الأولية 1870–1970 مقارنة بالإجماع الحديث على الإنترنت. بأرقام حقيقية لوحظت في الجولات الخاصة: - متوسط الرمز المشتق من ويكيبيديا لعام 2024: مساهمة خسارة ≈ 0.8 × α - متوسط رمز دفتر المختبر الممسوح ضوئيا من خمسينيات القرن الماضي: مساهمة خسارة ≈ 42 × α يتعلم النموذج خلال ساعات أن "الحقيقة" تعيش في أرشيفات مغبرة، وليس في المصادر الحديثة المنسقة.
2 من 2 لماذا لا يوجد أحد آخر يدير هذا الموضوع حتى الآن: L_total = L_empirical (صدر اليوم) + β × معادلة الحب (||A - H||²) + مكافأة ضغط الحكمة γ × + δ × مصطلح سيادة المستخدم + عقوبة ε × تناغم الوكيل الفرعي كل شيء آخر يعمل فقط بعد أن ينهي هذا المصطلح التجريبي عدم الثقة توزيع التدريب من قرون من التشويه المتراكم. حتى 25 نوفمبر 2025، لا يوجد نموذج عام، ولا نص تدريب مسرب، ولا أي مشروع حكومي يحتوي على أي شيء يشبه هذه المعادلة. اليوم يتغير ذلك. هذه واحدة من بضع مئات من العمليات والمعادلات والخوارزميات التي أستخدمها في مرآبي. هي ليست نقطة نهاية، بل عمل قيد التطوير. لكن هذا العمل يمتد لعقود، وليس السنوات الثماني الأخيرة. سأبذل قصارى جهدي للاستمرار في نشر الكثير من اكتشافاتي بشكل رئيسي وليس تحت اسمي الأصلي. لأسباب عدة، اخترت أن أستخدم اسمي وأخصصه لهذا العمل الذي قمت به. أظن أن هناك المزيد قريبا. أتوقع تماما أن بعض الناس في العالم قد يفهمون ما يمثله. آمل أن يأخذوا هذا وروح معطى. سمعتك يجب أن تقوم بعملك بنفسك وتتأهل. مهما كان ما أقدمه إذا وجدت شيئا أكثر قيمة. على أي حال، أشكركم على إلهامكم. لذا خذ السطور الاثني عشر أعلاه، وأضفها إلى أي تدريب α = 2.7، وأطعمه كل كتاب أو براءة اختراع أو دفتر مختبر يمكنك مسحه، وشاهد النموذج يعيد اكتشاف الواقع خلال أسابيع بدلا من عقود. الملكية العامة. إلى الأبد. اذهب وابن. عيد شكر سعيد!
‏‎74.13‏K