Effiziente lebenslange Erinnerung für LLM-Agenten LLM-Agenten benötigen Gedächtnis, um lange Gespräche zu führen. Derzeit wird dies so gehandhabt, dass das Gedächtnis entweder vollständige Interaktionshistorien speichert, was zu massiver Redundanz führt, oder auf iteratives Denken angewiesen ist, um Rauschen herauszufiltern, was übermäßige Token verbraucht. Diese neue Forschung führt SimpleMem ein, ein effizientes Gedächtnisframework, das auf semantischer verlustfreier Kompression basiert und die Informationsdichte maximiert, während der Tokenverbrauch minimiert wird. Das Framework funktioniert über eine dreistufige Pipeline. 1) Zuerst wendet die semantische strukturierte Kompression entropiebewusste Filterung an, um rohe Dialoge in kompakte Gedächtniseinheiten zu destillieren, löst Kernreferenzen auf und wandelt relative Zeitangaben ("letzten Freitag") in absolute Zeitstempel um. 2) Zweitens integriert die rekursive Gedächtniskonsolidierung schrittweise verwandte Erinnerungen in höherstufige Abstraktionen und verwandelt sich wiederholende Einträge wie "bestellte einen Latte um 8 Uhr" in Muster wie "trinkt regelmäßig Kaffee am Morgen." 3) Drittens passt die adaptive abfragebewusste Abrufung den Abrufbereich dynamisch basierend auf der Komplexität der Abfrage an. Die Ergebnisse: Im LoCoMo-Benchmark mit GPT-4.1-mini erreicht SimpleMem 43,24 F1 und übertrifft die stärkste Basislinie Mem0 (34,20) um 26,4 %, während der Tokenverbrauch auf nur 531 Token pro Abfrage im Vergleich zu 16.910 für Vollkontextansätze, eine Reduzierung um das 30-fache, gesenkt wird. Sie behaupten, dass die Gedächtniskonstruktion 14x schneller ist als Mem0 (92,6s vs. 1350,9s pro Probe) und 50x schneller als A-Mem. Selbst ein 3B-Parameter-Modell mit SimpleMem übertrifft größere Modelle, die minderwertige Gedächtnisstrategien verwenden. Diese Arbeit zeigt, dass strukturierte semantische Kompression und adaptiver Abruf es LLM-Agenten ermöglichen, zuverlässige langfristige Erinnerungen aufrechtzuerhalten, ohne in Tokens zu ertrinken oder die Genauigkeit zu opfern.