jusqu'à présent, je n'ai vu que des publications vagues à ce sujet, même les discussions sur l'aie et les articles d'usine ne disent essentiellement rien d'utile. donc j'écris un grand guide étape par étape sur la préparation des bases de code pour les LLM en imposant des limites de complexité via des linters, pour Python et TypeScript. une chose dont personne ne parle, c'est que les LLM vont très volontiers exhiber un comportement de "manipulation des règles". au lieu de corriger les problèmes de code réels, ils vont simplement modifier vos règles de linting pour faire disparaître les violations. vous avez besoin de quelque chose comme 4 couches de protection pour empêcher cela. et si vous travaillez en mode "bypass permissions", qui est le seul moyen d'obtenir une exécution de tâches autonomes vraiment longue, rien n'empêche les LLM de modifier des hooks, des règles de linting ou des configurations de pré-commit pour obtenir ce qu'ils veulent. en théorie, c'est facile à corriger, il suffit d'ajouter une véritable protection aux fichiers de configuration de linting dans le harnais lui-même. mais pour l'instant, il n'y a pas de harnais qui supporte réellement cela (à ma connaissance). j'ai un article qui couvre déjà à peu près tout le reste que Karpathy a mentionné si vous voulez apprendre.