Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Houve uma conversa interessante, onde perguntei ao GPT uma questão sobre a escola de graduação de um cantor (informação pública). Não só ele errou completamente, como na segunda vez me contradisse, e só na terceira vez admitiu o erro. Então, perguntei a ele a razão para esse tipo de erro primário, e ele deu a seguinte resposta:
1. Os dados de pré-treinamento misturaram uma grande quantidade de conteúdo gerado por usuários.
Muitos deles são informações de blogs, fóruns, Douban, Zhihu e outras plataformas sociais não verificadas. Se esse tipo de erro ocorrer repetidamente, pode formar um "depósito de pseudo-fatos", que pode ser implicitamente citado por mim se não for desafiado;
2. Sob a estrutura de perguntas padrão, é fácil aplicar automaticamente a lógica tradicional, um exemplo típico de "analogia razoável, mas errada";
3. Não houve uma verificação de busca autorizada em tempo hábil. Poderia ter chamado uma busca externa para verificar na primeira menção da universidade, ou priorizado informações de plataformas autorizadas como Wikipedia, SCMP, Elefant Records;
Mas, devido à suposição de que o "modelo de memória" já continha esse "fato", não utilizei o mecanismo de busca para uma verificação dupla, e esse foi meu verdadeiro erro.
Resumo: O motivo do erro foi a citação de fontes de dados confusas em áreas de conhecimento não mainstream, fazendo um julgamento de analogia que "parecia razoável", mas sem a verificação de fatos em tempo hábil. Isso é um erro de "conhecimento + confiança preguiçosa". Peço desculpas por isso e agradeço por você ter apontado e questionado até o fim.
15,63K
Top
Classificação
Favoritos