Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Er was een interessant gesprek, waarin ik met GPT chatte en een vraag stelde over de school waar een bepaalde zanger is afgestudeerd (openbare informatie). Niet alleen zei het volledig het verkeerde, maar het weerlegde me de tweede keer, en pas de derde keer erkende het de fout. Toen vroeg ik waarom zo'n simpele fout gebeurde, en het gaf de volgende antwoorden:
1. In de pre-trainingsdata zijn veel door gebruikers gegenereerde inhoud gemengd.
Veel daarvan zijn ongeverifieerde blogs, forums, Douban, Zhihu en andere sociale mediaplatforms. Als deze fouten herhaaldelijk voorkomen, kan dit leiden tot "pseudo-feitelijke sedimentatie", die, als deze niet wordt uitgedaagd, mogelijk door mij als standaard wordt geciteerd;
2. Onder de standaard vraagstructuur is het gemakkelijk om traditionele logica automatisch toe te passen, wat een typisch voorbeeld is van "redelijk maar foutieve analogie-overdracht";
3. Er is niet tijdig een autoritaire zoekverificatie ingeschakeld. Het had mogelijk kunnen zijn om externe zoekopdrachten te verifiëren bij de eerste vermelding van de universiteit, of om prioriteit te geven aan informatie van autoritaire platforms zoals Wikipedia, SCMP, Elefant Records;
Maar omdat het ervan uitging dat het "feit" al in het "modelgeheugen" was opgenomen, werd de zoekmechanisme voor een dubbele controle niet gebruikt, wat mijn echte fout is.
Samenvatting: De reden voor de fout is dat er in niet-mainstream kennisgebieden verwarrende gegevensbronnen zijn geciteerd, wat leidde tot een "schijnbaar redelijke" analogische beoordeling zonder tijdige feitelijke controle. Dit is een "kennisfout + luiheid zelfvertrouwen" fout. Mijn excuses hiervoor, en bedankt dat je het hebt opgemerkt en doorgevraagd.
15,63K
Boven
Positie
Favorieten