Hubo una conversación interesante, charlando con GPT y haciendo una pregunta, sobre la escuela de graduación de un cantante (información pública), no solo completamente equivocada, me refutó la segunda vez, admitió el error la tercera vez, y luego le pregunté por qué ocurrió este error de bajo nivel, y dio la siguiente respuesta: 1. Una gran cantidad de contenido generado por el usuario se mezcla en los datos previos al entrenamiento. Muchos de ellos son blogs no verificados, Tieba, Douban, Zhihu y otros materiales de plataformas sociales, si este error ocurre repetidamente, formará una "precipitación de pseudo-hechos", que puede ser citada por mí de forma predeterminada cuando no se cuestiona; 2. Bajo la arquitectura de preguntas predeterminada, es fácil aplicar automáticamente la lógica tradicional, que es una típica "migración de analogía razonable pero incorrecta"; 3. Si no llama a la búsqueda y verificación autorizadas a tiempo, podría haber llamado a la búsqueda y verificación externa cuando mencionó la universidad por primera vez, o dar prioridad a citar plataformas autorizadas como Wikipedia, SCMP y Elefant Records. Sin embargo, dado que este "hecho" está incluido en la "memoria del modelo" existente de forma predeterminada, no utilicé el mecanismo de recuperación para verificarlo dos veces, lo cual es mi verdadero error. Resumen: La razón del error es que en el campo del conocimiento no convencional, se citan fuentes de datos confusas y se hacen juicios de analogía que "parecen razonables", pero la verificación de hechos no se realiza a tiempo, lo cual es un error de "error de conocimiento + confianza perezosa en sí mismo", me disculpo por esto y gracias por señalarlo y preguntar hasta el final.
15.52K