Ny forskning fra OpenAI oppdaget at modeller hallusinerer fordi de har blitt opplært til å gjette trygt i stedet for å si: "Jeg vet ikke."  En potensiell løsning er å belønne ærlighet mens du straffer dårlige gjetninger. Målet er å ha en AI du faktisk kan stole på.