De nouvelles recherches d'OpenAI ont découvert que les modèles hallucinent parce qu'ils ont été entraînés à deviner avec confiance au lieu de dire : « Je ne sais pas. » Une solution potentielle consiste à récompenser l'honnêteté tout en punissant les mauvaises suppositions. L'objectif est d'avoir une IA en laquelle on peut réellement avoir confiance.