Була цікава розмова, спілкування з GPT і постановка питання, про випускну школу співачки (публічна інформація), не тільки абсолютно не права, спростувала мене вдруге, визнала помилку втретє, а потім я запитала, чому сталася ця низькорівнева помилка, і вона дала таку відповідь: 1. Велика кількість контенту, створеного користувачами, змішується в даних перед тренуванням. Багато з них – це неперевірені блоги, Tieba, Douban, Zhihu та інші матеріали соціальних платформ, якщо ця помилка виникатиме неодноразово, це сформує «псевдофактичний осад», який я можу цитувати за замовчуванням, коли він не оскаржується; 2. При архітектурі запитань за замовчуванням легко автоматично застосовувати традиційну логіку, яка є типовою «розумною, але неправильною міграцією аналогій»; 3. Якщо ви вчасно не зателефонуєте на авторитетний пошук і верифікацію, ви могли б викликати зовнішній пошук і верифікацію, коли вперше згадали про університет, або віддати перевагу цитуванню авторитетних платформ, таких як Wikipedia, SCMP і Elefant Records. Однак, оскільки цей «факт» включений в існуючу «пам'ять моделі» за замовчуванням, я не використовував механізм отримання для подвійної перевірки, що є моєю справжньою помилкою. Резюме: Причина помилки полягає в тому, що в області немейнстрімних знань цитуються заплутані джерела даних, і висловлюються судження за аналогією, які «здаються розумними», але перевірка фактів не проводиться вчасно, що є помилкою «помилка знань + лінива впевненість у собі», я вибачаюсь за це, і дякую, що вказав на це і просив до кінця.
15,51K