Effektivt livslångt minne för LLM-agenter LLM-agenter behöver minne för att hantera långa samtal. Så som detta hanteras idag är att minnet antingen behåller fullständiga interaktionshistoriker, vilket leder till massiv redundans, eller förlitar sig på iterativt resonemang för att filtrera brus, vilket försvinner överflödiga tokens. Denna nya forskning introducerar SimpleMem, ett effektivt minnesramverk baserat på semantisk förlustfri komprimering som maximerar informationstätheten samtidigt som token-användningen minimeras. Ramverket fungerar genom en trestegspipeline. 1) För det första tillämpar Semantic Structured Compression entropimedveten filtrering för att destillera rå dialog till kompakta minnesenheter, där koreferenser löses och relativa tidsuttryck ("förra fredagen") omvandlas till absoluta tidsstämplar. 2) För det andra integrerar rekursiv minneskonsolidering inkrementvis relaterade minnen i högre abstraktioner, och förvandlar repetitiva poster som "beställde en latte klockan 8 på morgonen" till mönster som "dricker regelbundet kaffe på morgonen." 3) För det tredje justerar Adaptive Query-Aware Retrieval dynamiskt återvinningens omfattning baserat på frågekomplexitet. Resultaten: På LoCoMo-benchmarken med GPT-4.1-mini uppnår SimpleMem 43,24 F1, vilket överträffar den starkaste baslinje-Mem0 (34,20) med 26,4 %, samtidigt som token-förbrukningen minskas till endast 531 tokens per fråga jämfört med 16 910 för fullkontext-metoder, en minskning med 30 gånger. De hävdar att minneskonstruktionen är 14 gånger snabbare än Mem0 (92,6 ss mot 1350,9 ss per prov) och 50 gånger snabbare än A-Mem. Även en 3B-parametermodell med SimpleMem överträffar större modeller med sämre minnesstrategier. Detta arbete visar att strukturerad semantisk kompression och adaptiv återvinning gör det möjligt för LLM-agenter att upprätthålla tillförlitligt långtidsminne utan att drunkna i tokens eller offra noggrannhet.