Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Jeg tok nettopp en grundig titt på MiroThinker 1.5, og deres agentkomprimeringsmetode er litt ond, men jeg forstår den og synes den er veldig nyttig.
Kjernen løser problemet med «hvordan plassere 400-verktøybruk i en 256K-kontekst».
De gjorde noe ekstremt dristig: fysisk maskerte Observasjonen (verktøyet returnerer resultatet) i tenk-handling-observasjon i ReActs historie.
Bortsett fra den nylige K-runden med å beholde originalteksten, har de tidligere hundrevis av verktøyresultater alle blitt erstattet med setningen «Verktøyresultat er utelatt for å lagre tokens». Men alle holdes <thought>intakte.
Det er en veldig motintuitiv del av dette, denne agenten selv gjør grundig research, så han beholder bare originalteksten fra siste K-runde, altså den femte runden, og det er ingen foran den, hvordan kan han svare på spørsmålet.
Dette har et svært obskurt, men avgjørende premiss: så lenge tanken er tett nok, nærmer den seg faktisk Sammendraget uendelig.
Hver tankegenerering er i hovedsak et utdrag av informasjon fra modellen for den nåværende observasjonen. Da T1 ble generert, var nøkkeldataene i O1 allerede «spist» inn i hjernen.
Mens O1 ble erstattet med en plassholder, forble T1. T1 blir O1s "informasjonskomprimeringspakke". Det er ikke nødvendig å legge til en ekstra oppsummeringsagent, denne komplette tankerekken er i seg selv en høyoppløselig «dynamisk oppsummering» som kontinuerlig oppdateres gradvis.

Topp
Rangering
Favoritter
