OpenAI:n uusi tutkimus havaitsi, että mallit näkevät hallusinaatioita, koska heidät on koulutettu arvaamaan luottavaisesti sen sijaan, että he sanoisivat: "En tiedä".  Mahdollinen ratkaisu on palkita rehellisyys ja rangaista huonoista arvauksista. Tavoitteena on saada tekoäly, johon voit todella luottaa.