Käytiin mielenkiintoinen keskustelu, keskustelu GPT:n kanssa ja kysymys laulajan valmistumiskoulusta (julkinen tieto), ei vain täysin väärässä, kumosi minut toisen kerran, myönsi virheen kolmannen kerran, ja sitten kysyin siltä, miksi tämä matalan tason virhe tapahtui, ja se antoi seuraavan vastauksen: 1. Suuri määrä käyttäjien luomaa sisältöä sekoittuu koulutusta edeltävään dataan. Monet niistä ovat vahvistamattomia blogeja, Tieba-, Douban-, Zhihu- ja muita sosiaalisen alustan materiaaleja, jos tämä virhe toistuu, se muodostaa "pseudofaktojen sateen", jota voin lainata oletusarvoisesti, kun sitä ei kyseenalaisteta; 2. Oletuskysymysarkkitehtuurissa on helppo soveltaa automaattisesti perinteistä logiikkaa, joka on tyypillinen "kohtuullinen mutta väärä analogiasiirto"; 3. Jos et kutsu arvovaltaista hakua ja todentamista ajoissa, olisit voinut soittaa ulkoiseen hakuun ja todentamiseen, kun mainitsit yliopiston ensimmäistä kertaa, tai asettaa etusijalle arvovaltaisten alustojen, kuten Wikipedian, SCMP:n ja Elefant Recordsin, lainaamisen. Koska tämä "fakta" sisältyy oletuksena olemassa olevaan "mallimuistiin", en kuitenkaan käyttänyt hakumekanismia tarkistaakseni uudelleen, mikä on todellinen virheeni. Yhteenveto: Syy virheeseen on se, että valtavirran ulkopuolisen tiedon alalla viitataan sekaviin tietolähteisiin ja tehdään analogia-arvioita, jotka "vaikuttavat järkeviltä", mutta faktantarkistusta ei tehdä ajoissa, mikä on virhe "tietovirhe + laiska itseluottamus", pahoittelen tätä, ja kiitos, että huomautit siitä ja kysyit loppuun asti.
15,53K