O nouă cercetare de la OpenAI a descoperit că modelele halucinează pentru că au fost antrenate să ghicească cu încredere în loc să spună: "Nu știu".  O soluție potențială este să răsplătești onestitatea în timp ce pedepsești presupunerile greșite. Scopul este să ai o inteligență artificială în care poți avea încredere.