Uma nova pesquisa da OpenAI descobriu que os modelos alucinam porque foram treinados para adivinhar com confiança em vez de dizer: ‘Não sei.’ Uma solução potencial é recompensar a honestidade enquanto se pune os palpites ruins. O objetivo é ter uma IA em que você realmente possa confiar.