Eu acho que chegará um momento em que um llm poderá se autoverificar com raciocínio e ferramentas externas. Se estiver fazendo seus próprios experimentos tocando o mundo, obtendo feedback verificado dele e testando suas teorias, ele pode se autoverificar muito. Eu não acho que estamos lá ainda, mas...