A fost o conversație interesantă, discutând cu GPT și punând o întrebare, despre școala de absolvire a unui cântăreț (informații publice), nu numai că a greșit complet, m-a respins a doua oară, a recunoscut greșeala a treia oară, apoi am întrebat-o de ce a apărut această eroare de nivel scăzut și a dat următorul răspuns: 1. O cantitate mare de conținut generat de utilizatori este amestecată în datele de pre-antrenament. Multe dintre ele sunt bloguri neverificate, Tieba, Douban, Zhihu și alte materiale ale platformei sociale, dacă această eroare apare în mod repetat, va forma o "precipitare pseudo-fapt", care poate fi citată de mine în mod implicit atunci când nu este contestată; 2. În cadrul arhitecturii implicite a întrebărilor, este ușor să se aplice automat logica tradițională, care este o "migrație analogică rezonabilă, dar greșită"; 3. Dacă nu apelați la căutare și verificare autorizată la timp, ați fi putut apela la căutare și verificare externă atunci când ați menționat universitatea pentru prima dată sau ați acorda prioritate citării platformelor de autoritate precum Wikipedia, SCMP și Elefant Records. Cu toate acestea, deoarece acest "fapt" este inclus în mod implicit în "memoria modelului" existentă, nu am folosit mecanismul de recuperare pentru a verifica de două ori, ceea ce este adevărata mea greșeală. Rezumat: Motivul greșelii este că în domeniul cunoașterii non-mainstream sunt citate surse de date confuze și se fac judecăți analogice care "par rezonabile", dar verificarea faptelor nu se face la timp, ceea ce este o greșeală de "eroare de cunoaștere + încredere în sine leneșă", îmi cer scuze pentru acest lucru și vă mulțumesc pentru că ați subliniat-o și ați întrebat până la sfârșit.