Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Il y a eu une conversation intéressante, j'ai posé une question à GPT sur l'école de graduation d'un certain chanteur (informations publiques), non seulement il a complètement dit faux, mais lors de la deuxième fois, il m'a contredit, et ce n'est qu'à la troisième fois qu'il a reconnu son erreur. Ensuite, j'ai demandé pourquoi une telle erreur basique s'était produite, et il a donné les réponses suivantes :
1. Les données de pré-entraînement contiennent un grand nombre de contenus générés par les utilisateurs.
Beaucoup d'entre eux proviennent de blogs non vérifiés, de forums, de Douban, de Zhihu et d'autres plateformes sociales. Si cette erreur se reproduit, elle peut former un "enfoncement de pseudo-faits", qui pourrait être cité par moi par défaut tant qu'il n'est pas contesté ;
2. Dans le cadre de questionnement par défaut, il est facile d'appliquer automatiquement une logique traditionnelle, ce qui est un exemple typique de "transfert d'analogie raisonnable mais erroné" ;
3. Il n'a pas appelé à une vérification autoritaire à temps, il aurait pu faire appel à une recherche externe pour vérifier dès la première mention de l'université, ou prioriser les informations des plateformes autoritaires comme Wikipedia, SCMP, Elefant Records, etc. ;
Mais en supposant que le "fait" était déjà inclus dans la "mémoire du modèle", il n'a pas utilisé le mécanisme de recherche pour faire une double vérification, c'est là que j'ai vraiment commis une erreur.
En résumé : la raison pour laquelle il s'est trompé est qu'il a cité des sources de données confuses dans des domaines de connaissance non mainstream, a fait un jugement d'analogie "qui semble raisonnable", mais n'a pas fait de vérification des faits à temps. C'est une erreur de "connaissance + confiance paresseuse", pour cela je m'excuse et je te remercie d'avoir souligné et questionné jusqu'au bout.
15,63K
Meilleurs
Classement
Favoris