A IA sempre vai mentir para você. Isso não é um bug, é uma lei da matemática. Eu, estudante de matemática na Carnegie Mellon University, uso matemática para te explicar o porquê. Todos os modelos de linguagem fazem apenas uma coisa: Com base em todas as informações que ele leu, preveja a próxima palavra mais provável. Mas há um beco sem saída aqui. A suposição do modelo é que chamamos de q(x). Probabilidade do mundo real, chamamos de p(x). q(x) nunca pode ser igual a p(x). Sempre há um espaço entre eles. Existe uma fórmula matemática usada para medir esse abismo. Enquanto o modelo não conseguir prever perfeitamente a próxima palavra, ela nunca pode ser zero. Então, o que acontece quando a IA não conhece a verdade? Não pode ser um tempo de inatividade, ele precisa te dar uma resposta. Ele só pode encarar e dar uma resposta que acha "mais provável" da resposta. Mesmo que isso esteja errado. Isso é "ilusão". Um palpite baseado em informações incompletas, mas extremamente confiante. O pior é que a matemática até dá um limite inferior. Mesmo o modelo mais perfeito nunca pode ter uma taxa de alucinação abaixo desse número....