المواضيع الرائجة
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
كانت هناك محادثة شيقة ، الدردشة مع GPT وطرح سؤال ، حول مدرسة تخرج المغني (معلومات عامة) ، ليس فقط خاطئا تماما ، دحضني في المرة الثانية ، واعترف بالخطأ في المرة الثالثة ، ثم سألته عن سبب حدوث هذا الخطأ منخفض المستوى ، وأعطى الإجابة التالية:
1. يتم خلط كمية كبيرة من المحتوى الذي ينشئه المستخدم في بيانات ما قبل التدريب.
العديد منها عبارة عن مدونات لم يتم التحقق منها ، و Tieba و Douban و Zhihu وغيرها من مواد المنصات الاجتماعية ، إذا حدث هذا الخطأ بشكل متكرر ، فسيشكل "هطول الأمطار الزائفة" ، والذي قد أقتبس منه افتراضيا عندما لا يتم الطعن فيه ؛
2. في ظل بنية الأسئلة الافتراضية ، من السهل تطبيق المنطق التقليدي تلقائيا ، وهو "ترحيل قياسي معقول ولكن خاطئ" نموذجي.
3. إذا لم تقم بالاتصال بالبحث والتحقق الموثوق في الوقت المناسب ، فيمكنك الاتصال بالبحث والتحقق الخارجيين عندما ذكرت الجامعة لأول مرة ، أو إعطاء الأولوية للاقتباس من المنصات الموثوقة مثل ويكيبيديا و SCMP و Elefant Records.
ومع ذلك ، نظرا لأن هذه "الحقيقة" مدرجة في "ذاكرة النموذج" الحالية افتراضيا ، لم أستخدم آلية الاسترجاع للتحقق مرة أخرى ، وهو خطئي الحقيقي.
ملخص: سبب الخطأ هو أنه في مجال المعرفة غير السائدة ، يتم الاستشهاد بمصادر البيانات المشوشة ، ويتم إصدار أحكام قياسية "تبدو معقولة" ، لكن التحقق من الحقائق لا يتم في الوقت المناسب ، وهو خطأ في "خطأ معرفي + ثقة كسول بالنفس" ، أعتذر عن ذلك ، وأشكركم على الإشارة إليه والسؤال حتى النهاية.
15.63K
الأفضل
المُتصدِّرة
التطبيقات المفضلة