I ricercatori del MIT propongono i Modelli Linguistici Ricorsivi Sentirete di più su questo nel 2026. Perché è importante? E se i LLM potessero elaborare input 100 volte più lunghi della loro finestra di contesto? La lunghezza del contesto è un vincolo rigido. Puoi estenderlo con cambiamenti architettonici, ma c'è sempre un limite. La maggior parte degli approcci cerca di spremere di più nella finestra o comprimere ciò che non si adatta. Questa nuova ricerca adotta un approccio diverso. Invece di combattere il limite del contesto, lavora attorno ad esso in modo programmatico. I Modelli Linguistici Ricorsivi (RLM) trattano i lunghi prompt come un ambiente esterno. Il modello può esaminare il prompt, decomporlo in sezioni e chiamarsi ricorsivamente su frammenti. È una scalabilità in tempo di inferenza applicata alla lunghezza del contesto. Invece di forzare tutto attraverso l'attenzione in un solo passaggio, lascia che il modello partizioni e elabori strategicamente le informazioni attraverso più chiamate ricorsive. I risultati sono impressionanti. Gli RLM gestiscono con successo input fino a due ordini di grandezza oltre le finestre di contesto del modello. Un modello con un contesto di 8K può elaborare efficacemente 800K token. Ma ecco cosa sorprende: anche per prompt più brevi che rientrano nel contesto, gli RLM superano drammaticamente i LLM di base e i comuni supporti a lungo contesto in quattro compiti diversi. Questo suggerisce qualcosa di interessante. Forse l'attenzione sequenziale su tutto l'input non è sempre la strategia migliore, anche quando è tecnicamente possibile. La decomposizione programmatica e l'elaborazione ricorsiva potrebbero essere fondamentalmente migliori per alcuni compiti. L'approccio raggiunge un costo comparabile o inferiore per query rispetto ai metodi alternativi a lungo contesto. Le limitazioni della lunghezza del contesto vincolano ciò che gli agenti possono fare. Elaborare interi codici sorgente, lunghi documenti o storie di conversazione estese richiede soluzioni alternative. Gli RLM offrono una strategia di inferenza generale che trasforma i limiti del contesto in un vincolo morbido piuttosto che rigido.