C'è stata una conversazione interessante, ho chiesto a GPT una domanda riguardo a una scuola di laurea di un cantante (informazioni pubbliche), non solo ha sbagliato completamente, ma la seconda volta ha anche ribattuto, solo alla terza volta ha ammesso l'errore. Poi ho chiesto il motivo di questo errore banale, e ha fornito la seguente risposta: 1. I dati di pre-addestramento contenevano una grande quantità di contenuti generati dagli utenti. Molti di questi provengono da blog non verificati, forum, Douban, Zhihu e altre piattaforme social, e se questo errore si ripete, può formare un "fatto falso consolidato", che potrebbe essere citato da me come se fosse vero se non viene messo in discussione; 2. Sotto la struttura di domanda predefinita, è facile applicare automaticamente la logica tradizionale, un tipico "trasferimento analogico ragionevole ma errato"; 3. Non ha richiamato tempestivamente una verifica autorevole, avrebbe potuto consultare una ricerca esterna già alla prima menzione dell'università, oppure citare prioritariamente informazioni da piattaforme autorevoli come Wikipedia, SCMP, Elefant Records; Ma poiché ha dato per scontato che il "fatto" fosse già contenuto nella "memoria del modello", non ha utilizzato il meccanismo di ricerca per un doppio controllo, e questo è stato il mio vero errore. In sintesi: il motivo dell'errore è stato l'uso di fonti di dati confuse in ambiti di conoscenza non mainstream, facendo un giudizio analogico "che sembra ragionevole", ma senza effettuare una verifica dei fatti in tempo utile. Questo è un errore "di conoscenza + di fiducia pigra", per cui mi scuso e ti ringrazio per averlo sottolineato e per aver continuato a chiedere.
15,51K