Effektiv livslang hukommelse for LLM-agenter LLM-agenter trenger hukommelse for å håndtere lange samtaler. Slik dette håndteres i dag, beholder minnet enten fullstendige interaksjonshistorikker, noe som fører til massiv redundans, eller er avhengig av iterativ resonnement for å filtrere støy, noe som bruker for mye tokens. Denne nye forskningen introduserer SimpleMem, et effektivt minnerammeverk basert på semantisk tapsfri komprimering som maksimerer informasjonstettheten samtidig som tokenforbruket minimeres. Rammeverket opererer gjennom en tretrinns pipeline. 1) For det første anvender semantisk strukturert komprimering entropibevisst filtrering for å destillere rå dialog til kompakte minneenheter, løse koreferanser og konvertere relative tidsuttrykk ("forrige fredag") til absolutte tidsstempler. 2) For det andre integrerer rekursiv minnekonsolidering inkrementelt relaterte minner i høyere nivå abstraksjoner, og gjør repeterende oppføringer som «bestilte en latte klokken 8» om til mønstre som «drikker kaffe regelmessig om morgenen.» 3) For det tredje justerer Adaptive Query-Aware Retrieval dynamisk innhentingsomfanget basert på spørringskompleksitet. Resultatene: På LoCoMo-benchmarken med GPT-4.1-mini oppnår SimpleMem 43,24 F1, og overgår den sterkeste baseline Mem0 (34,20) med 26,4 %, samtidig som token-forbruket reduseres til bare 531 tokens per spørring sammenlignet med 16 910 for fullkontekst-tilnærminger, en 30-ganger reduksjon. De hevder at minnekonstruksjonen er 14 ganger raskere enn Mem0 (92,6 sekunder mot 1350,9 sekunder per prøve) og 50 ganger raskere enn A-Mem. Selv en 3B-parametermodell med SimpleMem overgår større modeller som bruker dårligere minnestrategier. Dette arbeidet viser at strukturert semantisk komprimering og adaptiv gjenfinning gjør det mulig for LLM-agenter å opprettholde pålitelig langtidshukommelse uten å drukne i tokens eller ofre nøyaktighet.