Es extraño que antes de los LLMs, ni siquiera se especulaba ampliamente que los vectores de alta dimensión codifican Conceptos, y la geometría de sus posiciones relativas codifica Significado, en toda su generalidad. Pensarías que habría sido una hipótesis candidata que se le daba una probabilidad del 30%.
@johnmark_taylor Cualquiera que pensara en 2014 "El aprendizaje profundo va a funcionar" probablemente tenía razón. Simplemente no escuché que esta pieza central más simple y audaz del aprendizaje profundo ganara plausibilidad generalizada en el discurso.
28,81K