Trendaavat aiheet
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

宝玉
Prompt Engineer, joka on omistautunut oppimaan ja levittämään tietoa tekoälystä, ohjelmistosuunnittelusta ja suunnittelun hallinnasta.
RT @mtrainier2020: Tämä arvio on enemmänkin muodollisuus.
Peruslogiikka on tuote, jonka tämä tiimi kehitti Kiinassa. Tämä on digitaalisia omaisuuseriä.
Kun siirrät ja vaihdat ohjausta, se todella tarkistetaan.
Mutta merkitys ei ole kovin suuri.
Meta voi ottaa käyttöön menetelmän, jossa kaikki työntekijät rekrytoidaan suoraan. Siirrä ihmisiä. …
22
Cursor on juuri julkaissut artikkelin, Dynamic context discovery, heidän kontekstinhallinnan salaisuuksistaan.
Manus' Peak sanoi haastattelussa:
> So Peak sanoi olevansa "onnellisia ja avuttomia" lukiessaan joidenkin malliyritysten julkaisemia tutkimusblogeja. Onnellisia, koska nämä blogit ovat vahvistaneet suuntansa, mutta avuttomia, koska blogissa kirjoitettu on käytännössä sitä, mitä he ovat tehneet pitkään.
Cursorin artikkeli on vahvistanut tämän näkemyksen 😂, mutta ei voi sanoa, että Cursor kopioisi Manusin teknologiaa, vaan ainoastaan AI Agentin parasta käytäntöä, eli miten kontekstia hallitaan hyvin, ja kontekstin hyvä hallinta on erottamaton osa tiedostojärjestelmää.
Ilman sen pidempiä puheita, Cursorin artikkeli käsittelee "dynaamista kontekstin löytämistä", ja ydin on kontekstin hallinta.
Monet käyttävät tekoälyä peläten, ettei tekoäly tiedä, pelkäävät, ettei tekoäly muista, ja he eivät malta odottaa, että pääsevät pakottamaan koko projektin dokumentit, historialliset tiedot ja työkalukuvaukset siihen.
Mutta kun mallit muuttuvat älykkäämmiksi, liiallinen tiedon pakkaaminen etukäteen auttaa. Ensinnäkin se tuhlaa tokeneita (kontekstiikkuna on rajallinen), ja toiseksi tieto on liian sekava ja voi häiritä mallin arviointia. Aivan kuten annat tehtävät pätevälle alaiselle, sinun ei tarvitse tulostaa kaikkia yrityksen järjestelmädokumentteja ja laittaa ne hänen pöydälleen, ja tarkistat, mitä hän tarvitsee.
Tätä Cursor ehdottaa "Dynamic Context Discovery" -malliksi: älä kiirehdi täyttämään tietoa malliin, vaan anna mallin löytää se silloin kun sitä tarvitaan.
[1] Anna tekoälyn löytää tarvitsemansa tiedot itse
Kuulostaa yksinkertaiselta, mutta miten se tehdään? Cursor jakaa viisi optimointia, joita he oikeasti käyttävät, ja jokainen niistä on varsin älykäs.
Skenaario 1: Pitkä ulostulo muuttuu tiedostoksi
Mikä on ongelma? Kun tekoäly kutsuu ulkoista työkalua (esimerkiksi suorittamalla shell-komentoa tai kutsumalla MCP-palvelua), lopputulos voi olla pitkä – pitkä lista lokeja, kokonainen verkkosivu. Yleinen käytäntö on leikata ja säilyttää vain pieni osa. Mutta leikattu osa saattaa olla vain se avaintieto, jota käytetään myöhemmin.
Cursorin lähestymistapa on kirjoittaa pitkiä tuloksia tiedostoihin ja antaa tekoälylle mahdollisuus lukea tiedostoja. Tekoäly voi ensin käyttää häntäkäskyä katsoakseen loppua ja tunteakseen, että sen täytyy lukea lisää. Tämä ei täytä kontekstia eikä menetä tietoa.
Skenaario 2: Chat-historia muuttuu tarkistettavaksi tiedostoksi
Kun keskustelu on liian pitkä ja ylittää kontekstiikkunan rajan, Kursor käynnistää "yhteenveto"-vaiheen, joka tiivistää aiemman sisällön yhteenvedoksi ja antaa tekoälylle "uuden lähtökohdan".
Mutta puristus on haitallista. Tärkeitä yksityiskohtia voi kadota yhteenvetoprosessin aikana, jolloin tekoäly "menettää muistinsa". Cursorin lähestymistapa on tallentaa koko chat-historia. Tekoäly saa yhteenvedon, mutta jos se huomaa, että "jotain näyttää puuttuvan täältä", se voi käydä alkuperäisen tietueen läpi löytääkseen sen itse.
Se on kuin lähettäisit kokouksen pöytäkirjan työntekijöillesi, mutta koko kokoustallenne on silti tallella—voit palata heidän luokseen, jos sinulla on kysyttävää.
Skenaario 3: Lataa taitoja tarpeen mukaan
Cursor tukee laajennusmekanismia nimeltä "Agent Skills", joka on käytännössä manuaali, joka kertoo tekoälylle, miten tietyllä alueella tehtäviä hoidetaan. Näitä käsikirjoja voi olla paljon, mutta niitä ei tarvitse ladata joka kerta.
Cursorin lähestymistapa on laittaa järjestelmäkehotteeseen vain "sisällysluettelo" – taidon nimi ja lyhyt kuvaus. Kun tekoäly todella tarvitsee tietyn taidon, käytä hakutyökalua saadaksesi täydellisen kuvauksen. Tuntuu kuin et kantaisi koko kirjastoa selässäsi, pelkkä indeksikortti riittää.
Skenaario 4: Laihtuminen MCP-työkaluilla
Tämä skenaariodata on vakuuttavin. MCP, standardiprotokolla, jolla tekoäly yhdistää ulkoisiin palveluihin, on tällä hetkellä kuuma. Ongelma on, että jotkut MCP-palvelimet tarjoavat kymmeniä työkaluja, joista jokaisessa on pitkä kuvaus, joka vie tilaa koko kontekstissa. Vielä nolompaa on se, että suurinta osaa työkaluista ei käytetä lainkaan yhdessä tehtävässä.
Cursorin optimointimenetelmä on laittaa kehotteeseen vain työkalun nimi ja synkronoida koko kuvaus kansioon. Kun tekoäly tarvitsee työkalua, tarkista, miten sitä käytetään.
Mikä on vaikutus? He suorittivat A/B-testauksen, ja MCP-työkalun kutsumisen yhteydessä tämä strategia vähensi tokenien kulutusta 46,9 %. Lähes puolet kustannuksista on säästetty.
On myös sivuetu: jos MCP-palvelu täytyy uudelleentodennuksessa, tekoäly "unohtaa", että nämä työkalut ovat olleet olemassa aiemmin, mikä jättää käyttäjät hämmentyneiksi. Nyt tekoäly voi ennakoivasti muistuttaa käyttäjiä "Hei, XX-palvelusi tarvitsee kirjautua uudelleen".
MCP-työkalujen optimointiin liittyen Anthropicilla on virallinen artikkeli "Code execution with MCP: Building more efficient agents"
Skenaario 5: Pääteistunto on myös tiedosto
Jokainen, joka on käyttänyt tekoälyohjelmointityökaluja, tietää, että joskus haluaa kysyä: "Miksi komentoni epäonnistui?", mutta tekoäly ei edes tiedä, mitä komentoa olet suorittanut. Sinun täytyy kopioida ja liittää päätelaitteen ulostulo manuaalisesti.
Kursori synkronoi nyt automaattisesti integroidun päätteen ulostulon paikalliseen tiedostojärjestelmään. Tekoäly voi suoraan "nähdä" terminaalihistoriasi ja hakea tiettyä sisältöä grepillä tarvittaessa. Tämä ominaisuus on erityisen hyödyllinen palvelulokeille, jotka ovat olleet käynnissä pitkään.
[2] Miksi "dokumentoida"
Kuten olet ehkä huomannut, Cursorin viidellä optimoinnilla on yksi yhteinen piirre: ne kaikki muuttavat asiat tiedostoiksi.
Miksi tiedosto eikä jokin muu abstraktio?
Cursor sanoi:
> Emme ole varmoja, mikä on paras käyttöliittymä tuleville LLM-työkaluille, mutta tiedosto on yksinkertainen, tehokas perustavanlaatuinen yksikkö, joka on paljon turvallisempi kuin uuden abstraktioiden keksiminen.
Tämä ajatus sopii yhteen Manusin filosofian kanssa. Teknologiablogissaan "Context Engineering for AI Agents: Lessons from Building Manus" Peak mainitsee nimenomaan, että he käsittelevät tiedostojärjestelmää "äärimmäisenä kontekstina" – äärettömän kykenevänä, luonnostaan kestävänä ja tekoälyn itsensä ohjaamana.
Peak antaa elävän esimerkin: verkkosivun sisältö voidaan poistaa kontekstista, ja tekoäly voi hakea sisällön milloin tahansa, kunhan URL on yhä olemassa. Dokumentin koko teksti voidaan jättää pois, kunhan tiedostopolku on olemassa, ja lukea se tarvittaessa. Tämä "palautettava pakkaus" on paljon älykkäämpää kuin pelkkä trunkkaaminen tai poistaminen.
[3] Muutama ajatus
Yksi opetus on, että kontekstitekniikan ydin ei välttämättä ole "miten saada lisää tietoa", vaan "miten saada malli tehokkaasti saamaan tarvitsemansa tiedot". Kun mallin kyvykkyys paranee, on trendi antaa aloite mallille.
Toinen paljastus on yksinkertaisen abstraktion voima. Teknologian maailmassa meitä kiehtovat usein monimutkaiset suunnittelut. Mutta asiakirjojen esimerkki muistuttaa meitä siitä, että yksinkertaiset abstraktiot, jotka ovat kestäneet ajan hammasta, usein kestävät pidempään kuin uudet keksinnöt, jotka vaikuttavat edistyneiltä.
Kun malli on tarpeeksi fiksu, voi olla parempi tunkea vähemmän tavaroita ja antaa niiden löytää ne itsestään kuin tunkea liikaa tavaroita. Joskus vähemmän on enemmän.


Cursor8 tuntia sitten
Cursorin agentti käyttää nyt dynaamista kontekstia kaikissa malleissa.
Se on älykkäämpää siinä, miten konteksti täytetään samalla kun laatu säilyy. Tämä vähentää kokonaistokeneita 46,9 %, kun käytetään useita MCP-palvelimia.

1,11K
Johtavat
Rankkaus
Suosikit
