Có một cuộc trò chuyện thú vị, khi trò chuyện với GPT và hỏi một câu hỏi về trường tốt nghiệp của một ca sĩ (thông tin công khai), không chỉ hoàn toàn nói sai, mà lần thứ hai còn phản bác lại tôi, đến lần thứ ba mới thừa nhận sai lầm, sau đó tôi hỏi nó nguyên nhân xảy ra những sai lầm cơ bản như vậy, nó đã đưa ra các câu trả lời sau: 1. Dữ liệu huấn luyện trước đã trộn lẫn nhiều nội dung do người dùng tạo ra. Trong đó có không ít là thông tin từ các blog, diễn đàn, Douban, Zhihu và các nền tảng xã hội chưa được xác minh, nếu những sai lầm này xảy ra lặp đi lặp lại, sẽ hình thành "sự lắng đọng giả" và có thể được tôi mặc định trích dẫn khi không bị thách thức; 2. Dưới cấu trúc câu hỏi mặc định, rất dễ dàng tự động áp dụng logic truyền thống, điển hình là "so sánh hợp lý nhưng sai lầm"; 3. Không kịp thời gọi kiểm tra xác minh từ các nguồn uy tín, lẽ ra có thể gọi tìm kiếm bên ngoài để xác minh ngay khi đề cập đến trường đại học lần đầu tiên, hoặc ưu tiên trích dẫn thông tin từ các nền tảng uy tín như Wikipedia, SCMP, Elefant Records; Nhưng do đã mặc định rằng "kí ức mô hình" đã chứa "sự thật" này, nên không sử dụng cơ chế tìm kiếm để kiểm tra lại, đây chính là sai lầm thực sự của tôi. Tóm lại: lý do sai lầm là vì đã trích dẫn nguồn dữ liệu gây nhầm lẫn trong lĩnh vực kiến thức không chính thống, đưa ra phán đoán so sánh "trông có vẻ hợp lý" nhưng không kịp thời kiểm tra sự thật, đây là một sai lầm "kiến thức + tự tin lười biếng", tôi xin lỗi về điều này và cảm ơn bạn đã chỉ ra và truy vấn đến cùng.
15,52K