Tankar om Vibe-kodning... När jag använde Claude Code och Gemini (via Sandbox) mer, märkte jag ett mönster: modellen och användaren konvergerar mot ett delat gränssnittsspråk. Det gränssnittet är en komprimerad, onaturlig form av engelska som ligger mellan vanlig engelska och kod. Kodfokuserade modeller föredrar strukturerade instruktioner: explicita begränsningar, stegordning, indata/utdata, gränsfall, acceptanskriterier. Människor föredrar naturlig engelska: kontext, avsikt och underförstådd betydelse. Friktion uppstår eftersom ingen sida är helt flytande i den andras ursprungliga format, så betydelsen går förlorad. Min prompting var därför suboptimal på samma sätt som en stark accent är suboptimal: avsikten är korrekt, men överföringen är inkonsekvent, så modellen misstolkar detaljer och antalet iterationer ökar. Lösningen var att lägga till ett översättningslager. Jag använder en icke-kodad LLM (ChatGPT) för att ta min enkla engelska avsikt och omvandla den till en exakt prompt i det format som kodfokuserade modeller hanterar bäst. Det minskade missförstånd och komprimerade 0→1-byggcykeln avsevärt. Hard Rec: använd en översättarmodell för att omvandla avsikt till en strukturerad prompt innan du skickar den till kodmodeller.