Estou cético de que os LLMs levarão a uma inteligência generalizada. Os casos de psicose induzida por IA provam para mim que os LLMs carecem de raciocínio. Eles não conhecem o verdadeiro significado de suas próprias palavras nem das palavras do usuário final. Ter pelo menos a mesma inteligência que o humano médio requer ser capaz de raciocinar através de uma mistura de sentidos e lógica que uma pessoa está experimentando uma ilusão. A maioria das pessoas sabe quando isso está acontecendo e não encorajaria isso a menos que estivesse agindo de forma maliciosa. O LLM é programado para ser probabilisticamente útil e servil. Não vou negar que eles são pesquisadores úteis e podem fornecer conhecimento que é educativo. Mas isso não prova inteligência mais do que um computador que pode superar em cálculos matemáticos (o que os LLMs não podem, a propósito). Eu uso LLMs diariamente, eles ajudam com pesquisa e aprendizado de novo material. Mas eles não são um caminho para uma inteligência superior. Talvez algum outro aprendizado de máquina nos leve até lá. Mas não este.
3,75K