Det var en interessant samtale, chatte med GPT og stille et spørsmål, om en sangers avgangsskole (offentlig informasjon), ikke bare helt feil, tilbakeviste meg andre gang, innrømmet feilen tredje gang, og så spurte jeg den hvorfor denne lavnivåfeilen oppstod, og den ga følgende svar: 1. En stor mengde brukergenerert innhold er blandet i førtreningsdataene. Mange av dem er ubekreftede blogger, Tieba, Douban, Zhihu og annet sosialt plattformmateriale, hvis denne feilen oppstår gjentatte ganger, vil det danne en "pseudo-fakta-utfelling", som kan siteres av meg som standard når den ikke blir utfordret; 2. Under standard spørsmålsarkitektur er det enkelt å automatisk bruke tradisjonell logikk, som er en typisk "rimelig, men feil analogimigrering"; 3. Hvis du ikke kaller autoritativt søk og verifisering i tide, kunne du ha ringt eksternt søk og verifisering da du nevnte universitetet for første gang, eller prioritert å sitere autoritative plattformer som Wikipedia, SCMP og Elefant Records. Men siden dette "faktum" er inkludert i det eksisterende "modellminnet" som standard, brukte jeg ikke gjenfinningsmekanismen for å dobbeltsjekke, noe som er min virkelige feil. Sammendrag: Årsaken til feilen er at innen ikke-mainstream kunnskap siteres forvirrede datakilder, og analogivurderinger som "virker rimelige" blir gjort, men faktasjekkingen er ikke gjort i tide, noe som er en feil av "kunnskapsfeil + lat selvtillit", jeg beklager dette, og takk for at du påpekte det og spurte til slutten.
15,51K