Les hallucinations des LLM seront largement éliminées d'ici 2025. C'est un gros problème. Les implications sont bien plus profondes que la menace que les modèles se trompent un peu aujourd'hui.