Новое исследование от OpenAI показало, что модели «галлюцинируют», потому что они были обучены уверенно догадываться, а не говорить: «Я не знаю». Потенциальным решением является вознаграждение за честность и наказание за плохие догадки. Цель состоит в том, чтобы создать ИИ, которому можно действительно доверять.