Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Tankar om Vibe-kodning...
När jag använde Claude Code och Gemini (via Sandbox) mer, märkte jag ett mönster: modellen och användaren konvergerar mot ett delat gränssnittsspråk. Det gränssnittet är en komprimerad, onaturlig form av engelska som ligger mellan vanlig engelska och kod.
Kodfokuserade modeller föredrar strukturerade instruktioner: explicita begränsningar, stegordning, indata/utdata, gränsfall, acceptanskriterier.
Människor föredrar naturlig engelska: kontext, avsikt och underförstådd betydelse.
Friktion uppstår eftersom ingen sida är helt flytande i den andras ursprungliga format, så betydelsen går förlorad.
Min prompting var därför suboptimal på samma sätt som en stark accent är suboptimal: avsikten är korrekt, men överföringen är inkonsekvent, så modellen misstolkar detaljer och antalet iterationer ökar.
Lösningen var att lägga till ett översättningslager.
Jag använder en icke-kodad LLM (ChatGPT) för att ta min enkla engelska avsikt och omvandla den till en exakt prompt i det format som kodfokuserade modeller hanterar bäst.
Det minskade missförstånd och komprimerade 0→1-byggcykeln avsevärt.
Hard Rec: använd en översättarmodell för att omvandla avsikt till en strukturerad prompt innan du skickar den till kodmodeller.
Topp
Rankning
Favoriter
