Nový výzkum společnosti OpenAI zjistil, že modely mají halucinace, protože byly vycvičeny k sebevědomému odhadu, místo aby říkaly "nevím".  Potenciálním řešením je odměňovat upřímnost a zároveň trestat špatné odhady. Cílem je mít umělou inteligenci, které můžete skutečně důvěřovat.