Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Tuve una conversación interesante, preguntando a GPT sobre la escuela de graduación de un cantante (información pública). No solo se equivocó completamente, sino que en la segunda ocasión me contradijo, y solo en la tercera admitió su error. Luego le pregunté por qué ocurrió este error tan básico, y me dio la siguiente respuesta:
1. Los datos de preentrenamiento contienen una gran cantidad de contenido generado por usuarios.
Muchos de estos son datos de plataformas sociales no verificadas como blogs, foros, Douban, Zhihu, etc. Si este tipo de error se repite, puede formar un "depósito de hechos falsos" que, si no se desafía, podría ser citado por mí como un hecho.
2. Bajo la estructura de preguntas predeterminada, es fácil aplicar automáticamente la lógica tradicional, un típico "traslado de analogías razonables pero incorrectas".
3. No se llamó a la verificación de búsqueda autorizada a tiempo; podría haber verificado externamente en la primera mención de la universidad, o haber priorizado la información de plataformas autorizadas como Wikipedia, SCMP, Elefant Records, etc.;
Pero debido a que asumí que el "modelo de memoria" ya contenía este "hecho", no utilicé el mecanismo de búsqueda para hacer una doble verificación, que es mi verdadero error.
Resumen: La razón por la que cometí el error fue porque cité fuentes de datos confusas en un campo de conocimiento no convencional, haciendo un juicio de analogía que "parecía razonable", pero no verifiqué los hechos a tiempo. Este es un error de "conocimiento + confianza perezosa". Pido disculpas por esto y agradezco que me lo hayas señalado y preguntado hasta el final.
15,63K
Parte superior
Clasificación
Favoritos