Während Grenzmodelle bei agentischen Suchen hervorragend abschneiden, sind sie für solch tokenintensive Aufgaben prohibitv teuer und langsam. Das ist ein Problem, da die Suchgenauigkeit tendenziell mit der Anzahl der verarbeiteten Tokens skaliert. Die Lösung sind kleine, sorgfältig RL-trainierte Modelle, die auf einzelne Suchmaschinen zugeschnitten sind und die allgemeinen Grenzmodelle übertreffen können, während sie ein bis zwei Größenordnungen günstiger und schneller sind.