Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Memoria Efficiente e Duratura per Agenti LLM
Gli agenti LLM necessitano di memoria per gestire conversazioni lunghe. Il modo in cui questo viene gestito oggi è che la memoria mantiene o intere storie di interazione, portando a una massiccia ridondanza, oppure si basa su ragionamenti iterativi per filtrare il rumore, consumando un numero eccessivo di token.
Questa nuova ricerca introduce SimpleMem, un framework di memoria efficiente basato su compressione semantica senza perdita che massimizza la densità informativa minimizzando il consumo di token.
Il framework opera attraverso una pipeline in tre fasi.
1) Prima, la Compressione Strutturata Semantica applica un filtraggio consapevole dell'entropia per distillare il dialogo grezzo in unità di memoria compatte, risolvendo le coreferenze e convertendo le espressioni temporali relative ("venerdì scorso") in timestamp assoluti.
2) Secondo, la Consolidazione della Memoria Ricorsiva integra progressivamente memorie correlate in astrazioni di livello superiore, trasformando voci ripetitive come "ho ordinato un latte alle 8 del mattino" in schemi come "beve regolarmente caffè al mattino."
3) Terzo, il Recupero Consapevole della Query Adattivo regola dinamicamente l'ambito di recupero in base alla complessità della query.
I risultati: Sul benchmark LoCoMo con GPT-4.1-mini, SimpleMem raggiunge 43.24 F1, superando il più forte baseline Mem0 (34.20) del 26.4%, riducendo al contempo il consumo di token a soli 531 token per query rispetto ai 16.910 per approcci a contesto completo, una riduzione di 30x.
Affermano che la costruzione della memoria è 14x più veloce di Mem0 (92.6s contro 1350.9s per campione) e 50x più veloce di A-Mem. Anche un modello con 3 miliardi di parametri con SimpleMem supera modelli più grandi che utilizzano strategie di memoria inferiori.
Questo lavoro dimostra che la compressione semantica strutturata e il recupero adattivo consentono agli agenti LLM di mantenere una memoria a lungo termine affidabile senza affogare nei token o sacrificare l'accuratezza.

Principali
Ranking
Preferiti
