Uma nova pesquisa da OpenAI descobriu que os modelos alucinam porque foram treinados para adivinhar com confiança, em vez de dizer: 'Não sei'.  Uma solução potencial é recompensar a honestidade enquanto pune os palpites ruins. O objetivo é ter uma IA em que você possa realmente confiar.