Nieuw onderzoek van OpenAI heeft ontdekt dat modellen hallucineren omdat ze zijn getraind om zelfverzekerd te raden in plaats van te zeggen: 'Ik weet het niet.' Een mogelijke oplossing is om eerlijkheid te belonen terwijl slechte gissingen worden bestraft. Het doel is om een AI te hebben die je daadwerkelijk kunt vertrouwen.