Нове дослідження OpenAI виявило, що моделі галюцинують, тому що їх навчили впевнено вгадувати, а не казати: «Я не знаю».  Потенційне рішення – винагороджувати чесність і карати за погані здогадки. Мета полягає в тому, щоб мати штучний інтелект, якому ви дійсно можете довіряти.