Актуальные темы
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Был интересный разговор, я задал вопрос GPT о выпускной школе одного певца (публичная информация), и оно не только полностью ошиблось, но и во второй раз возразило мне, только в третий раз признало ошибку. Затем я спросил его о причинах такой низкой ошибки, и оно дало следующий ответ:
1. В предобученных данных смешано много пользовательского контента.
Многое из этого — непроверенные материалы с блогов, форумов, Douban, Zhihu и других социальных платформ. Если такая ошибка повторяется, это может привести к образованию "ложных фактов", которые могут быть использованы мной по умолчанию, если не будут оспорены;
2. В рамках стандартной структуры вопросов легко автоматически применять традиционную логику, что является типичным "разумным, но ошибочным аналоговым переносом";
3. Не было своевременного обращения к авторитетным источникам для проверки. Можно было бы обратиться к внешнему поиску для проверки уже при первом упоминании университета или в первую очередь сослаться на информацию с авторитетных платформ, таких как Wikipedia, SCMP, Elefant Records;
Но из-за предположения, что в "модельной памяти" уже содержится этот "факт", не использовался механизм поиска для двойной проверки, что и является моей настоящей ошибкой.
В заключение: причина ошибки заключается в том, что в области нестандартных знаний были использованы запутанные источники данных, что привело к "выглядящему разумным" аналоговому суждению, но не было своевременной проверки фактов. Это ошибка "знаниевая + лень". Приношу извинения за это и благодарю вас за то, что указали на это и продолжили задавать вопросы.
15,52K
Топ
Рейтинг
Избранное