トレンドトピック
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
バイブコーディングの考え...
Claude CodeやGemini(Sandbox経由)を使い続けるうちに、あるパターンに気づきました。モデルとユーザーが共通のインターフェース言語に向かって収束していくのです。そのインターフェースは、通常の英語とコードの間に位置する、圧縮された不自然な英語の形です。
コード重視モデルは構造化された命令を好みます:明示的な制約、ステップ順序、入力/出力、エッジケース、受理基準などです。
人間は自然な英語、すなわち文脈(context)、意図(intent)、暗示的な意味(implied mean)を好みます。
摩擦が生じるのは、どちらの側も相手の母語フォーマットに完全に慣れていないため、意味が失われてしまうからです。
したがって、私のプロンプトは、強いアクセントが最適でないのと同じように最適とは言えませんでした。意図は正しいのに伝達が一貫性がなく、モデルは詳細を誤解し、反復回数が増えてしまいます。
修正案として翻訳レイヤーを追加しました。
私は非コードのLLM(ChatGPT)を使って、平易な英語の意図をコード重視のモデルが最も扱う正確なプロンプトに変換しています。
これにより誤解が減り、0→1のビルドサイクルが大幅に圧縮されました。
ハードレック:翻訳モデルを使って意図を構造化されたプロンプトに変換し、その後コードモデルに送る。
トップ
ランキング
お気に入り
