Nowe badania przeprowadzone przez OpenAI odkryły, że modele halucynują, ponieważ zostały wytrenowane do pewnego zgadywania zamiast mówienia: ‚Nie wiem.‘ Potencjalnym rozwiązaniem jest nagradzanie szczerości przy jednoczesnym karaniu złych zgadywań. Celem jest posiadanie AI, któremu można naprawdę zaufać.