Nuove ricerche di OpenAI hanno scoperto che i modelli allucinano perché sono stati addestrati a indovinare con sicurezza invece di dire: ‘Non lo so.’ Una soluzione potenziale è premiare l'onestà mentre si puniscono i cattivi indovinamenti. L'obiettivo è avere un'AI di cui ci si può realmente fidare.