Net als de overstap in 2025 van taalmodellen naar redeneermodellen, denken we dat 2026 helemaal zal draaien om de overstap naar Recursieve Taalmodellen (RLM's). Het blijkt dat modellen veel krachtiger kunnen zijn als je ze toestaat *hun eigen prompts* te behandelen als een object in een externe omgeving, die ze begrijpen en manipuleren door code te schrijven die LLM's aanroept! Ons volledige paper over RLM's is nu beschikbaar—met veel uitgebreidere experimenten in vergelijking met onze eerste blogpost van oktober 2025!