Subiecte populare
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Gânduri de programare a vibrației...
Pe măsură ce am folosit mai mult Claude Code și Gemini (prin Sandbox), am observat un tipar: modelul și utilizatorul converg către un limbaj de interfață comun. Acea interfață este o formă comprimată, nenaturală de engleză, care se situează între engleza normală și cod.
Modelele axate pe cod preferă instrucțiunile structurate: constrângeri explicite, ordinea pașilor, intrări/ieșiri, cazuri limită, criterii de acceptare.
Oamenii preferă engleza naturală: context, intenție și sens implicit.
Fricțiunea apare pentru că niciuna dintre părți nu este pe deplin fluentă în formatul nativ al celeilalte, deci sensul se pierde.
Prin urmare, prompting-ul meu a fost suboptim în același mod în care un accent puternic este suboptim: intenția este corectă, dar transmiterea este inconsistentă, astfel că modelul interpretează greșit detaliile și numărul de iterații crește.
Soluția a fost să adaug un strat de traducere.
Folosesc un LLM non-cod (ChatGPT) pentru a transforma intenția mea în engleză simplă într-un prompt precis în formatul pe care modelele axate pe cod îl gestionează cel mai bine.
Asta a redus neînțelegerile și a comprimat semnificativ ciclul de construcție 0→1.
Hard Commend: folosește un model traducător pentru a converti intenția într-un prompt structurat înainte de a-l trimite către modelele de cod.
Limită superioară
Clasament
Favorite
