Vibe-koding-tanker... Etter hvert som jeg brukte Claude Code og Gemini (via Sandbox) mer, la jeg merke til et mønster: modellen og brukeren konvergerer mot et delt grensesnittspråk. Det grensesnittet er en komprimert, unaturlig form for engelsk som befinner seg mellom vanlig engelsk og kode. Kodefokuserte modeller foretrekker strukturerte instruksjoner: eksplisitte begrensninger, stegrekkefølge, input/output, kanttilfeller, akseptkriterier. Mennesker foretrekker naturlig engelsk: kontekst, intensjon og underforstått betydning. Friksjon oppstår fordi ingen av sidene er helt flytende i den andres opprinnelige format, så meningen går tapt. Min prompting var derfor suboptimal på samme måte som en sterk aksent er suboptimal: intensjonen er korrekt, men overføringen er inkonsekvent, så modellen feiltolker detaljer og antall iterasjoner øker. Løsningen var å legge til et oversettelseslag. Jeg bruker en ikke-kode LLM (ChatGPT) for å ta min enkle engelske intensjon og konvertere den til en presis prompt i det formatet som kodefokuserte modeller håndterer best. Det reduserte misforståelser og komprimerte 0→1-byggesyklusen betydelig. Hard Rec: bruk en oversettermodell for å konvertere intensjon til en strukturert prompt før du sender den til kodemodellene.