Penelitian baru dari OpenAI menemukan bahwa model berhalusinasi karena mereka telah dilatih untuk menebak dengan percaya diri alih-alih mengatakan, 'Saya tidak tahu.'  Solusi potensial adalah menghargai kejujuran sambil menghukum tebakan buruk. Tujuannya adalah untuk memiliki AI yang benar-benar dapat Anda percayai.