Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Miałem ciekawą rozmowę, zadając pytanie GPT o szkołę, z której pochodzi pewien piosenkarz (informacje publiczne). Nie tylko całkowicie się pomylił, ale za pierwszym razem zaprzeczył, a dopiero za trzecim razem przyznał się do błędu. Następnie zapytałem go o przyczynę tak podstawowego błędu, a on podał następujące odpowiedzi:
1. W danych do wstępnego treningu znalazło się wiele treści generowanych przez użytkowników.
Wiele z nich pochodzi z niezweryfikowanych blogów, forów, Douban, Zhihu i innych platform społecznościowych. Tego rodzaju błędy, jeśli będą się powtarzać, mogą prowadzić do powstania "fałszywych faktów", które mogą być przeze mnie domyślnie cytowane, jeśli nie zostaną zakwestionowane;
2. W ramach domyślnej struktury pytań łatwo jest automatycznie zastosować tradycyjną logikę, co prowadzi do typowego "rozsądnego, ale błędnego przeniesienia analogii";
3. Nie wezwano do natychmiastowego korzystania z autorytatywnych źródeł weryfikacyjnych. Można było zweryfikować informacje już przy pierwszym wspomnieniu o uniwersytecie, korzystając z zewnętrznych wyszukiwarek, lub priorytetowo cytować informacje z autorytatywnych platform, takich jak Wikipedia, SCMP, Elefant Records;
Jednak z powodu założenia, że "fakt" ten jest zawarty w "pamięci modelu", nie użyto mechanizmu wyszukiwania do podwójnej weryfikacji, co było moim prawdziwym błędem.
Podsumowując: pomyłka wynikała z cytowania mylących źródeł danych w obszarze wiedzy niegłównego nurtu, co doprowadziło do "wyglądającego na rozsądne" osądu analogii, ale bez natychmiastowej weryfikacji faktów. To jest błąd "wiedzy + leniwej pewności siebie", za co przepraszam i dziękuję, że to wskazałeś i dociekałeś.
15,52K
Najlepsze
Ranking
Ulubione