Proběhl zajímavý rozhovor, chatování s GPT a kladení otázky o absolventské škole zpěváka (veřejné informace), nejenže mě podruhé vyvrátilo, potřetí přiznalo chybu a pak jsem se zeptal, proč k této chybě nízké úrovně došlo, a on dal následující odpověď: 1. V předtréninkových datech je přimícháno velké množství obsahu generovaného uživateli. Mnohé z nich jsou neověřené blogy, Tieba, Douban, Zhihu a další materiály sociálních platforem, pokud se tato chyba vyskytuje opakovaně, vytvoří to "sraženinu pseudofaktů", kterou mohu standardně citovat, když není zpochybněna; 2. V rámci výchozí architektury otázek je snadné automaticky aplikovat tradiční logiku, což je typická "rozumná, ale špatná analogická migrace"; 3. Pokud včas nezavoláte autoritativní vyhledávání a ověřování, mohli jste při první zmínce o univerzitě zavolat externí vyhledávání a ověřování, nebo dát přednost citacím autoritativních platforem, jako jsou Wikipedie, SCMP a Elefant Records. Protože je však tento "fakt" ve výchozím nastavení obsažen v existující "paměti modelu", nepoužil jsem načítací mechanismus k dvojité kontrole, což je moje skutečná chyba. Shrnutí: Důvodem chyby je, že v oblasti nemainstreamových znalostí jsou citovány zmatené zdroje dat a jsou činěny analogické soudy, které se "zdají být rozumné", ale ověřování faktů se neprovádí včas, což je chyba "chyba ve znalostech + líné sebevědomí", omlouvám se za to a děkuji za upozornění a ptání se až do konce.
15,37K