كانت هناك محادثة شيقة ، الدردشة مع GPT وطرح سؤال ، حول مدرسة تخرج المغني (معلومات عامة) ، ليس فقط خاطئا تماما ، دحضني في المرة الثانية ، واعترف بالخطأ في المرة الثالثة ، ثم سألته عن سبب حدوث هذا الخطأ منخفض المستوى ، وأعطى الإجابة التالية: 1. يتم خلط كمية كبيرة من المحتوى الذي ينشئه المستخدم في بيانات ما قبل التدريب. العديد منها عبارة عن مدونات لم يتم التحقق منها ، و Tieba و Douban و Zhihu وغيرها من مواد المنصات الاجتماعية ، إذا حدث هذا الخطأ بشكل متكرر ، فسيشكل "هطول الأمطار الزائفة" ، والذي قد أقتبس منه افتراضيا عندما لا يتم الطعن فيه ؛ 2. في ظل بنية الأسئلة الافتراضية ، من السهل تطبيق المنطق التقليدي تلقائيا ، وهو "ترحيل قياسي معقول ولكن خاطئ" نموذجي. 3. إذا لم تقم بالاتصال بالبحث والتحقق الموثوق في الوقت المناسب ، فيمكنك الاتصال بالبحث والتحقق الخارجيين عندما ذكرت الجامعة لأول مرة ، أو إعطاء الأولوية للاقتباس من المنصات الموثوقة مثل ويكيبيديا و SCMP و Elefant Records. ومع ذلك ، نظرا لأن هذه "الحقيقة" مدرجة في "ذاكرة النموذج" الحالية افتراضيا ، لم أستخدم آلية الاسترجاع للتحقق مرة أخرى ، وهو خطئي الحقيقي. ملخص: سبب الخطأ هو أنه في مجال المعرفة غير السائدة ، يتم الاستشهاد بمصادر البيانات المشوشة ، ويتم إصدار أحكام قياسية "تبدو معقولة" ، لكن التحقق من الحقائق لا يتم في الوقت المناسب ، وهو خطأ في "خطأ معرفي + ثقة كسول بالنفس" ، أعتذر عن ذلك ، وأشكركم على الإشارة إليه والسؤال حتى النهاية.
‏‎15.63‏K