Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Houve uma conversa interessante, conversando com o GPT e fazendo uma pergunta, sobre a escola de graduação de um cantor (informação pública), não apenas completamente errada, me refutou pela segunda vez, admitiu o erro pela terceira vez, e então perguntei por que esse erro de baixo nível ocorreu, e deu a seguinte resposta:
1. Uma grande quantidade de conteúdo gerado pelo usuário é misturada nos dados pré-treinamento.
Muitos deles são blogs não verificados, Tieba, Douban, Zhihu e outros materiais de plataformas sociais, se esse erro ocorrer repetidamente, formará uma "precipitação de pseudo-fato", que pode ser citada por mim por padrão quando não for contestada;
2. Sob a arquitetura de pergunta padrão, é fácil aplicar automaticamente a lógica tradicional, que é uma típica "migração de analogia razoável, mas errada";
3. Se você não chamar a pesquisa e verificação autorizadas a tempo, poderá ter chamado a pesquisa e verificação externa quando mencionou a universidade pela primeira vez ou dar prioridade à citação de plataformas autorizadas como Wikipedia, SCMP e Elefant Records.
No entanto, como esse "fato" está incluído na "memória do modelo" existente por padrão, não usei o mecanismo de recuperação para verificar novamente, o que é meu verdadeiro erro.
Resumo: A razão para o erro é que no campo do conhecimento não convencional, fontes de dados confusas são citadas e julgamentos de analogia que "parecem razoáveis" são feitos, mas a verificação de fatos não é feita a tempo, o que é um erro de "erro de conhecimento + autoconfiança preguiçosa", peço desculpas por isso e obrigado por apontar e perguntar até o fim.
15,53K
Melhores
Classificação
Favoritos