Актуальные темы
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Эффективная долговременная память для агентов LLM
Агентам LLM нужна память для обработки длинных разговоров. В настоящее время это реализуется так, что память либо сохраняет полные истории взаимодействий, что приводит к огромной избыточности, либо полагается на итеративное рассуждение для фильтрации шума, что потребляет чрезмерное количество токенов.
Это новое исследование представляет SimpleMem, эффективную память, основанную на семантическом безубыточном сжатии, которая максимизирует плотность информации при минимизации потребления токенов.
Эта структура работает через трехступенчатый процесс.
1) Сначала семантическое структурированное сжатие применяет фильтрацию с учетом энтропии, чтобы дистиллировать сырые диалоги в компактные единицы памяти, разрешая кореференции и преобразуя относительные временные выражения ("в прошлую пятницу") в абсолютные временные метки.
2) Во-вторых, рекурсивная консолидация памяти постепенно интегрирует связанные воспоминания в абстракции более высокого уровня, превращая повторяющиеся записи, такие как "заказал латте в 8 утра", в шаблоны, такие как "регулярно пьет кофе по утрам."
3) В-третьих, адаптивное извлечение с учетом запроса динамически настраивает область извлечения в зависимости от сложности запроса.
Результаты: на бенчмарке LoCoMo с GPT-4.1-mini SimpleMem достигает 43.24 F1, превосходя самый сильный базовый уровень Mem0 (34.20) на 26.4%, при этом снижая потребление токенов до всего лишь 531 токена на запрос по сравнению с 16,910 для подходов с полным контекстом, что составляет сокращение в 30 раз.
Они утверждают, что построение памяти в 14 раз быстрее, чем у Mem0 (92.6с против 1350.9с на образец) и в 50 раз быстрее, чем у A-Mem. Даже модель с 3 миллиардами параметров с SimpleMem превосходит более крупные модели, использующие менее эффективные стратегии памяти.
Эта работа показывает, что структурированное семантическое сжатие и адаптивное извлечение позволяют агентам LLM поддерживать надежную долговременную память, не утопая в токенах и не жертвуя точностью.

Топ
Рейтинг
Избранное
