Miałem ciekawą rozmowę, zadając pytanie GPT o szkołę, z której pochodzi pewien piosenkarz (informacje publiczne). Nie tylko całkowicie się pomylił, ale za pierwszym razem zaprzeczył, a dopiero za trzecim razem przyznał się do błędu. Następnie zapytałem go o przyczynę tak podstawowego błędu, a on podał następujące odpowiedzi: 1. W danych do wstępnego treningu znalazło się wiele treści generowanych przez użytkowników. Wiele z nich pochodzi z niezweryfikowanych blogów, forów, Douban, Zhihu i innych platform społecznościowych. Tego rodzaju błędy, jeśli będą się powtarzać, mogą prowadzić do powstania "fałszywych faktów", które mogą być przeze mnie domyślnie cytowane, jeśli nie zostaną zakwestionowane; 2. W ramach domyślnej struktury pytań łatwo jest automatycznie zastosować tradycyjną logikę, co prowadzi do typowego "rozsądnego, ale błędnego przeniesienia analogii"; 3. Nie wezwano do natychmiastowego korzystania z autorytatywnych źródeł weryfikacyjnych. Można było zweryfikować informacje już przy pierwszym wspomnieniu o uniwersytecie, korzystając z zewnętrznych wyszukiwarek, lub priorytetowo cytować informacje z autorytatywnych platform, takich jak Wikipedia, SCMP, Elefant Records; Jednak z powodu założenia, że "fakt" ten jest zawarty w "pamięci modelu", nie użyto mechanizmu wyszukiwania do podwójnej weryfikacji, co było moim prawdziwym błędem. Podsumowując: pomyłka wynikała z cytowania mylących źródeł danych w obszarze wiedzy niegłównego nurtu, co doprowadziło do "wyglądającego na rozsądne" osądu analogii, ale bez natychmiastowej weryfikacji faktów. To jest błąd "wiedzy + leniwej pewności siebie", za co przepraszam i dziękuję, że to wskazałeś i dociekałeś.
15,52K