Los investigadores del MIT proponen Modelos de Lenguaje Recursivos Vas a escuchar más sobre esto en 2026. ¿Por qué es importante? ¿Qué pasaría si los LLMs pudieran procesar entradas 100 veces más largas que su ventana de contexto? La longitud del contexto es una restricción dura. Puedes extenderla con cambios arquitectónicos, pero siempre hay un límite. La mayoría de los enfoques intentan meter más en la ventana o comprimir lo que no cabe. Esta nueva investigación toma un enfoque diferente. En lugar de luchar contra el límite de contexto, trabaja a su alrededor programáticamente. Los Modelos de Lenguaje Recursivos (RLMs) tratan los prompts largos como un entorno externo. El modelo puede examinar el prompt, descomponerlo en secciones y llamarse a sí mismo recursivamente sobre fragmentos. Es escalado en tiempo de inferencia aplicado a la longitud del contexto. En lugar de forzar todo a través de la atención en una sola pasada, deja que el modelo divida y procese la información estratégicamente a través de múltiples llamadas recursivas. Los resultados son impresionantes. Los RLMs manejan con éxito entradas hasta dos órdenes de magnitud más allá de las ventanas de contexto del modelo. Un modelo con un contexto de 8K puede procesar efectivamente 800K tokens. Pero aquí está lo sorprendente: incluso para prompts más cortos que caben dentro del contexto, los RLMs superan dramáticamente a los LLMs base y a los andamios de largo contexto comunes en cuatro tareas diversas. Esto sugiere algo interesante. Quizás la atención secuencial sobre toda la entrada no siempre es la mejor estrategia, incluso cuando es técnicamente posible. La descomposición programática y el procesamiento recursivo podrían ser fundamentalmente mejores para ciertas tareas. El enfoque logra un costo comparable o más bajo por consulta en relación con los métodos alternativos de largo contexto. Las limitaciones de longitud de contexto restringen lo que los agentes pueden hacer. Procesar bases de código completas, documentos largos o historiales de conversación extendidos requiere soluciones alternativas. Los RLMs ofrecen una estrategia de inferencia general que convierte los límites de contexto en una restricción suave en lugar de una dura.