Tocmai am aruncat o privire atentă la MiroThinker 1.5, iar metoda lor de compresie a agenților este puțin rea, dar o înțeleg și cred că este foarte utilă. Nucleul rezolvă problema "cum să încasezi 400 de utilizări ale uneltelor într-un context de 256K". Au făcut ceva extrem de îndrăzneț: au mascat fizic Observația (instrumentul returnează rezultatul) în gândire-acțiune-observație în istoria ReAct. Cu excepția recentei runde K de păstrare a textului original, sutele anterioare de rezultate ale uneltelor au fost înlocuite cu propoziția "Rezultatul uneltei este omis pentru salvarea tokenurilor". Dar toate sunt păstrate <thought>intacte. Există o parte foarte contraintuitivă, acest agent face cercetări aprofundate, așa că păstrează doar textul original al ultimei runde K, adică a 5-a rundă, și nu este nimeni în fața lui, cum ar putea răspunde la întrebare. Aceasta are o premisă foarte obscură, dar crucială: atâta timp cât gândul este suficient de dens, de fapt se aproxima infinit de Rezumat. Fiecare generare de Gânduri este practic o felie de informație din model pentru observația curentă. Când T1 a fost generat, datele cheie din O1 fuseseră deja "consumate" în creier. Deși O1 a fost înlocuit cu un loc provizoriu, T1 a rămas. T1 devine "pachetul de compresie a informațiilor" al O1. Nu este nevoie să atașezi un Agent de Rezumat suplimentar, acest lanț complet de Gânduri este în sine un "rezumat dinamic" de înaltă fidelitate, actualizat constant incremental.