Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
fino ad ora ho visto solo post vaghi su questo, anche le discussioni aie e gli articoli della fabbrica non dicono praticamente nulla di utile. quindi sto scrivendo una grande guida passo-passo su come rendere i codebase pronti per llm imponendo limiti di complessità attraverso i linters, sia per python che per typescript
una cosa di cui nessuno parla è che gli llm mostreranno molto volentieri un comportamento di "rule-gaming". invece di risolvere i problemi reali del codice, modificheranno semplicemente le tue regole di linting per far scomparire le violazioni
hai bisogno di qualcosa come 4 strati di protezione per prevenire questo. e se lavori in modalità "bypass permissions", che è l'unico modo per ottenere un'esecuzione di compiti autonomi veramente lunga, non c'è nulla che impedisca agli llm di modificare hook, regole di linting o configurazioni pre-commit per ottenere ciò che vogliono
in teoria è facile da risolvere, basta aggiungere una vera protezione ai dotfile di linting nell'harness stesso. ma al momento non c'è alcun harness che supporti effettivamente questo (per quanto ne so)
ho un articolo che copre già praticamente tutto il resto che karpathy ha menzionato se vuoi imparare
Principali
Ranking
Preferiti
