Es gab ein interessantes Gespräch, in dem ich GPT eine Frage stellte, die sich auf die Universität eines bestimmten Sängers bezog (öffentliche Informationen). Es hat nicht nur völlig falsch geantwortet, sondern mich beim zweiten Mal auch widersprochen, und erst beim dritten Mal den Fehler zugegeben. Dann fragte ich, warum so ein einfacher Fehler passiert ist, und es gab folgende Antworten: 1. In den vortrainierten Daten sind viele nutzergenerierte Inhalte vermischt. Darunter sind viele unbestätigte Informationen von Blogs, Foren, Douban, Zhihu und anderen sozialen Plattformen. Wenn solche Fehler wiederholt auftreten, kann dies zu einer "falschen Faktenablagerung" führen, die möglicherweise von mir als Standardzitat übernommen wird, solange sie nicht in Frage gestellt wird; 2. Unter der Standardfrage-Struktur ist es leicht, traditionelle Logik automatisch anzuwenden, was zu typischen "vernünftigen, aber falschen Analogien" führt; 3. Es wurde nicht rechtzeitig auf autoritative Quellen zur Überprüfung zurückgegriffen. Man hätte beim ersten Erwähnen der Universität externe Suchanfragen zur Verifizierung nutzen oder bevorzugt Informationen von autoritativen Plattformen wie Wikipedia, SCMP, Elefant Records usw. zitieren können; Aber da angenommen wurde, dass das "Faktum" bereits im "Modellgedächtnis" enthalten ist, wurde der Suchmechanismus nicht zur doppelten Überprüfung verwendet, was mein tatsächlicher Fehler war. Zusammenfassung: Der Grund für den Fehler liegt darin, dass in nicht-mainstream Wissensbereichen verwirrende Datenquellen zitiert wurden, was zu einer "auf den ersten Blick vernünftigen" Analogiebewertung führte, ohne rechtzeitige Faktenüberprüfung. Dies ist ein Fehler, der auf "Wissenstyp-Fehler + träge Selbstsicherheit" zurückzuführen ist. Ich entschuldige mich dafür und danke dir, dass du darauf hingewiesen und nachgehakt hast.
15,52K