hasta ahora solo he visto publicaciones vagas sobre esto, incluso las charlas de aie y los artículos de fábrica no dicen básicamente nada útil. así que estoy escribiendo una gran guía paso a paso sobre cómo preparar bases de código para LLM aplicando límites de complejidad a través de linters, tanto para python como para typescript una cosa de la que nadie está hablando es que los LLM exhibirán muy felizmente un comportamiento de "juego de reglas". en lugar de solucionar problemas de código reales, simplemente modificarán tus reglas de linting para hacer que las violaciones desaparezcan necesitas algo así como 4 capas de protección para prevenir esto. y si trabajas en modo "bypass permissions", que es la única forma de obtener una ejecución de tareas autónomas realmente largas, no hay nada que impida a los LLM modificar hooks, reglas de linting o configuraciones de pre-commit para salirse con la suya en teoría, esto es fácil de solucionar, solo agrega una protección real a los dotfiles de linting en el propio arnés. pero en este momento no hay un arnés que realmente soporte esto (hasta donde sé) tengo un artículo que ya cubre prácticamente todo lo demás que mencionó karpathy si quieres aprender.