Det var ett intressant samtal, där jag chattade med GPT och ställde en fråga om en sångares examensskola (offentlig information), som inte bara var helt felaktig, motbevisade mig andra gången, erkände misstaget tredje gången, och sedan frågade jag varför detta lågnivåfel inträffade, och det gav följande svar: 1. En stor mängd användargenererat innehåll blandas i förträningsdata. Många av dem är overifierade bloggar, Tieba, Douban, Zhihu och annat material på sociala plattformar, om detta fel inträffar upprepade gånger kommer det att bilda en "pseudo-faktautfällning", som kan citeras av mig som standard när det inte ifrågasätts; 2. Under standardfrågearkitekturen är det lätt att automatiskt tillämpa traditionell logik, vilket är en typisk "rimlig men felaktig analogimigration"; 3. Om du inte ringer auktoritativ sökning och verifiering i tid, kunde du ha ringt extern sökning och verifiering när du nämnde universitetet för första gången, eller prioritera att citera auktoritativa plattformar som Wikipedia, SCMP och Elefant Records. Men eftersom detta "faktum" ingår i det befintliga "modellminnet" som standard, använde jag inte hämtningsmekanismen för att dubbelkolla, vilket är mitt verkliga misstag. Sammanfattning: Anledningen till misstaget är att inom området icke-mainstream-kunskap citeras förvirrade datakällor och analogibedömningar som "verkar rimliga" görs, men faktagranskningen görs inte i tid, vilket är ett misstag av "kunskapsfel + lat självförtroende", jag ber om ursäkt för detta, och tackar dig för att du påpekade det och frågade till slutet.