Es extraño que antes de los LLM, ni siquiera se especulaba ampliamente que los vectores de alta dimensión codifican conceptos, y la geometría de sus posiciones relativas codifica el significado, en total generalidad. Uno pensaría que habría sido una hipótesis candidata a la que se le dio ampliamente un 30% de probabilidad.
@johnmark_taylor Cualquiera que pensara en 2014 "El aprendizaje profundo va a funcionar" podría decirse que tenía razón. Simplemente no escuché que esta pieza central más simple y audaz del aprendizaje profundo ganara una plausibilidad generalizada en el discurso.
24.9K