Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

8Bit❓
Onderwijzen, aan boord, entertainen.
Grote geesten denken hetzelfde
Stel een auto-router in
Met @MiniMax_AI als fallback voor opus 4.5
Wif @grok code snel 4.1
@BagsApp


Peter Steinberger13 uur geleden
Ik heb de afgelopen dagen Clawd op @MiniMax_AI draaien na het optimaliseren van de implementatie en het is echt een geweldige alternatieve optie.
Ik raad dit nu aan boven Anthropic. Voor codering subagenten kun je nog steeds bijvoorbeeld codex als subagent kiezen. MiniMax is echt dichtbij voor 5% van de kosten.
13
Zeer belangrijk.
MD dit onmiddellijk in je stack.

elvis16 uur geleden
Geweldig paper over Agentic Memory.
LLM-agenten hebben zowel langetermijn- als kortetermijngeheugen nodig om complexe taken aan te kunnen.
Echter, de standaardaanpak van vandaag beschouwt deze als afzonderlijke componenten, elk met zijn eigen heuristieken, controllers en optimalisatiestrategieën.
Maar geheugen is geen twee onafhankelijke systemen. Het is één cognitief proces dat beslist wat te bewaren, op te halen, samen te vatten en te vergeten.
Dit nieuwe onderzoek introduceert AgeMem, een geïntegreerd kader dat het beheer van langetermijn- en kortetermijngeheugen rechtstreeks in het beleid van de agent integreert via tool-gebaseerde acties.
In plaats van te vertrouwen op trigger-gebaseerde regels of aanvullende geheugenbeheerders, leert de agent wanneer en hoe geheugenoperaties in te roepen: ADD, UPDATE, DELETE voor langetermijnopslag, en RETRIEVE, SUMMARY, FILTER voor contextbeheer.
Het gebruikt een driefasige progressieve RL-strategie. Eerst leert het model langetermijngeheugenopslag. Dan beheerst het kortetermijncontextbeheer. Ten slotte coördineert het beide onder volledige taakinstellingen.
Om de gefragmenteerde ervaringen van geheugenoperaties te verwerken, ontwerpen ze een stapsgewijze GRPO (Group Relative Policy Optimization) die afhankelijkheden tussen fasen omzet in leerbare signalen.
De resultaten over vijf benchmarks met lange horizon:
> Op Qwen2.5-7B behaalt AgeMem een gemiddelde score van 41.96 vergeleken met 37.14 voor Mem0, een verbetering van 13%.
> Op Qwen3-4B wordt de kloof groter: 54.31 vs 44.70. Het toevoegen van alleen langetermijngeheugen levert +10-14% winst op.
> Het toevoegen van RL-training voegt nog eens +6% toe.
> Het volledige geïntegreerde systeem met beide geheugentypes behaalt tot +21.7% verbetering ten opzichte van baselines zonder geheugen.
Het geïntegreerde geheugenbeheer via leerbare tool-gebaseerde acties presteert beter dan gefragmenteerde heuristische pipelines, waardoor agenten adaptief kunnen beslissen wat te onthouden en te vergeten op basis van de eisen van de taak.
Paper:
Leer effectieve AI-agenten te bouwen in onze academie:

8
Boven
Positie
Favorieten

