Houve uma conversa interessante, conversando com o GPT e fazendo uma pergunta, sobre a escola de graduação de um cantor (informação pública), não apenas completamente errada, me refutou pela segunda vez, admitiu o erro pela terceira vez, e então perguntei por que esse erro de baixo nível ocorreu, e deu a seguinte resposta: 1. Uma grande quantidade de conteúdo gerado pelo usuário é misturada nos dados pré-treinamento. Muitos deles são blogs não verificados, Tieba, Douban, Zhihu e outros materiais de plataformas sociais, se esse erro ocorrer repetidamente, formará uma "precipitação de pseudo-fato", que pode ser citada por mim por padrão quando não for contestada; 2. Sob a arquitetura de pergunta padrão, é fácil aplicar automaticamente a lógica tradicional, que é uma típica "migração de analogia razoável, mas errada"; 3. Se você não chamar a pesquisa e verificação autorizadas a tempo, poderá ter chamado a pesquisa e verificação externa quando mencionou a universidade pela primeira vez ou dar prioridade à citação de plataformas autorizadas como Wikipedia, SCMP e Elefant Records. No entanto, como esse "fato" está incluído na "memória do modelo" existente por padrão, não usei o mecanismo de recuperação para verificar novamente, o que é meu verdadeiro erro. Resumo: A razão para o erro é que no campo do conhecimento não convencional, fontes de dados confusas são citadas e julgamentos de analogia que "parecem razoáveis" são feitos, mas a verificação de fatos não é feita a tempo, o que é um erro de "erro de conhecimento + autoconfiança preguiçosa", peço desculpas por isso e obrigado por apontar e perguntar até o fim.
15,53K