Ada percakapan yang menarik, mengobrol dengan GPT dan mengajukan pertanyaan, tentang sekolah kelulusan seorang penyanyi (informasi publik), tidak hanya sepenuhnya salah, membantah saya untuk kedua kalinya, mengakui kesalahan untuk ketiga kalinya, dan kemudian saya bertanya mengapa kesalahan tingkat rendah ini terjadi, dan memberikan jawaban sebagai berikut: 1. Sejumlah besar konten buatan pengguna dicampur dalam data pra-pelatihan. Banyak dari mereka adalah blog yang belum diverifikasi, Tieba, Douban, Zhihu, dan materi platform sosial lainnya, jika kesalahan ini terjadi berulang kali, itu akan membentuk "presipitasi fakta semu", yang mungkin dikutip oleh saya secara default ketika tidak ditantang; 2. Di bawah arsitektur pertanyaan default, mudah untuk secara otomatis menerapkan logika tradisional, yang merupakan "migrasi analogi yang masuk akal tetapi salah"; 3. Jika Anda tidak memanggil pencarian dan verifikasi otoritatif tepat waktu, Anda dapat memanggil pencarian dan verifikasi eksternal ketika Anda menyebutkan universitas untuk pertama kalinya, atau memprioritaskan mengutip platform otoritatif seperti Wikipedia, SCMP, dan Elefant Records. Namun, karena "fakta" ini disertakan dalam "memori model" yang ada secara default, saya tidak menggunakan mekanisme pengambilan untuk memeriksa ulang, yang merupakan kesalahan saya yang sebenarnya. Ringkasan: Alasan kesalahan tersebut adalah bahwa di bidang pengetahuan non-arus utama, sumber data yang membingungkan dikutip, dan penilaian analogi yang "tampaknya masuk akal" dibuat, tetapi pengecekan fakta tidak dilakukan tepat waktu, yang merupakan kesalahan "kesalahan pengetahuan + kepercayaan diri yang malas", saya minta maaf untuk ini, dan terima kasih telah menunjukkannya dan meminta sampai akhir.
15,51K