Subiecte populare
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Jeffrey Emanuel
Fost investitor cantitativ, care acum construiește @lumera (fostă numită Pastel Network) | Proiectele mele open source: https://t.co/9qbOCDlaqM
Opinie nepopulară: Anthropic are tot dreptul în lume să ceară utilizatorilor să folosească harness-ul oficial de codare pentru agenți pentru a beneficia de costul subvenționat de 95% al tokenului față de prețul API-ului.
Un motiv major pentru care fac asta este să obțină perechi de intrare/ieșire de:
{agents_md, code_files, user_prompts, tool_calls, tool_outputs etc.}
la care apoi pot corela
{output_code_changes, did_it_work, is_user_happy, etc.}
Dacă pot colecta suficiente milioane pe zi de la zeci sau chiar sute de mii de utilizatori, atunci chiar și după ce aruncă datele proaste, pot aduna suficiente după câteva luni de colectări pentru a îmbunătăți serios același model de bază folosind metode RL (și să se descurce și mai bine cu un model de bază mai avansat).
Dar toate variantele sunt în discuție dacă oamenii folosesc soluții alternative care contrazic termenii de utilizare ai Anthropic pentru a folosi hamuri neautorizate precum OpenCode.
Chiar dacă Anthropic poate totuși colecta datele, acestea sunt practic inutile pentru ei în acest scop real pentru că nu pot fi amestecate cu toate celelalte date de pe harta lor oficială.
Ar fi ca și cum ai schimba obiectivele camerelor din sistemul tău de conducere autonomă Tesla pentru a le face mai asemănătoare cu un obiectiv fisheye. Chiar dacă ai reuși să faci sistemul să funcționeze cu ele, datele ar trebui eliminate de Tesla pentru scopuri de antrenament.
Când Anthropic îți permite o reducere de 95% în schimbul folosirii Claude Code, ambele părți beneficiază mult. Aceste date contribuie direct la îmbunătățirea mult a sistemului.
Controlul modelului și al hamului și antrenarea sistemului combinat împreună este ceea ce le-a permis să progreseze atât de rapid.
Când încalci acel beneficiu reciproc folosind un ham extern, faci din asta doar o propunere pur de pierdere de bani pentru Anthropic, fără niciun beneficiu indirect pe termen lung pentru ei. Așa că au oprit-o.
Ce mă surprinde și mai mult este că au lăsat lucrurile să dureze atât de mult timp.

184
"Prompturile mele preferate", de Jeffrey Emanuel
Prompt 3: Creatorul de Moduri Roboți
"Apoi, vreau să creezi un "mod robot" pentru agenții de codare care vor să interacționeze cu asta, astfel încât să nu fie nevoie să folosească interfața, ci să poată accesa aceleași funcționalități printr-un CLI din consolă, care este hiper-optimizat și ergonomic pentru agenți, dar și ultra-intuitiv pentru agenți de codare ca tine; Utilizatorii agenților ar trebui să primească înapoi ca ieșire, fie JSON, fie Markdown – orice se potrivește cel mai bine în context și este cel mai eficient din punct de vedere al tokenului și intuitiv pentru tine.
Practic, utilizatorii agenților ar trebui să obțină aceleași informații pe care le-ar primi un om manipulând și observând vizual interfața, dar într-o formă mai utilizabilă, utilă, intuitivă și accesibilă pentru agenți. Fă aici uneltele pe care TU le-ai dori dacă TU le-ai folosi (pentru că VAI!), care să maximizeze ergonomia și intuiția agentului. Asigură-te că dai comenzii un mod de pornire rapidă (când nu sunt furnizate argumente) care explică cele mai critice funcționalități în cel mai intuitiv mod posibil și bogat în tokenuri. Folosește ultrathink."
92
Limită superioară
Clasament
Favorite

