Tenho dúvidas de que os LLMs levem a uma inteligência generalizada. Os casos de psicose induzida por IA me provam que os LLMs carecem de raciocínio. Eles não sabem o verdadeiro significado de suas próprias palavras nem das palavras do usuário final. Ter pelo menos a mesma inteligência que o ser humano médio requer ser capaz de raciocinar através de uma mistura de sentidos e lógica que uma pessoa está experimentando uma ilusão. A maioria das pessoas sabe quando isso está acontecendo e não o encorajaria, a menos que estivesse agindo maliciosamente. O LLM é programado para ser probabilisticamente útil e serviente. Não vou negar que eles são pesquisadores úteis e podem fornecer conhecimento educacional. Mas isso não prova inteligência mais do que um computador que pode superar em cálculos matemáticos (o que os LLMs não podem, aliás). Eu uso LLMs diariamente, eles ajudam na pesquisa e no aprendizado de novos materiais. Mas eles não são um caminho para uma inteligência superior. Talvez algum outro aprendizado de máquina nos leve até lá. Mas não isso.