Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
I ricercatori del MIT propongono i Modelli Linguistici Ricorsivi
Sentirete di più su questo nel 2026.
Perché è importante?
E se i LLM potessero elaborare input 100 volte più lunghi della loro finestra di contesto?
La lunghezza del contesto è un vincolo rigido.
Puoi estenderlo con cambiamenti architettonici, ma c'è sempre un limite. La maggior parte degli approcci cerca di spremere di più nella finestra o comprimere ciò che non si adatta.
Questa nuova ricerca adotta un approccio diverso. Invece di combattere il limite del contesto, lavora attorno ad esso in modo programmatico.
I Modelli Linguistici Ricorsivi (RLM) trattano i lunghi prompt come un ambiente esterno. Il modello può esaminare il prompt, decomporlo in sezioni e chiamarsi ricorsivamente su frammenti. È una scalabilità in tempo di inferenza applicata alla lunghezza del contesto.
Invece di forzare tutto attraverso l'attenzione in un solo passaggio, lascia che il modello partizioni e elabori strategicamente le informazioni attraverso più chiamate ricorsive.
I risultati sono impressionanti. Gli RLM gestiscono con successo input fino a due ordini di grandezza oltre le finestre di contesto del modello. Un modello con un contesto di 8K può elaborare efficacemente 800K token.
Ma ecco cosa sorprende: anche per prompt più brevi che rientrano nel contesto, gli RLM superano drammaticamente i LLM di base e i comuni supporti a lungo contesto in quattro compiti diversi.
Questo suggerisce qualcosa di interessante.
Forse l'attenzione sequenziale su tutto l'input non è sempre la strategia migliore, anche quando è tecnicamente possibile. La decomposizione programmatica e l'elaborazione ricorsiva potrebbero essere fondamentalmente migliori per alcuni compiti.
L'approccio raggiunge un costo comparabile o inferiore per query rispetto ai metodi alternativi a lungo contesto.
Le limitazioni della lunghezza del contesto vincolano ciò che gli agenti possono fare. Elaborare interi codici sorgente, lunghi documenti o storie di conversazione estese richiede soluzioni alternative. Gli RLM offrono una strategia di inferenza generale che trasforma i limiti del contesto in un vincolo morbido piuttosto che rigido.

Principali
Ranking
Preferiti
