Ny forskning från OpenAI upptäckte att modeller hallucinerar eftersom de har tränats att gissa självsäkert i stället för att säga "jag vet inte".  En potentiell lösning är att belöna ärlighet samtidigt som man bestraffar dåliga gissningar. Målet är att ha en AI som du faktiskt kan lita på.