As alucinações de LLM serão amplamente eliminadas até 2025. Isso é um grande feito. As implicações são muito mais profundas do que a ameaça de os modelos errarem um pouco hoje.