Le allucinazioni degli LLM saranno in gran parte eliminate entro il 2025. È una questione enorme. Le implicazioni sono molto più profonde della minaccia che i modelli possano sbagliare un po' oggi.