Greptile acaba de publicar un "Informe sobre el Estado de la Programación de IA 2025", una empresa que realiza revisiones de código de IA, y sus clientes van desde startups estrella como PostHog y Brex hasta empresas del Fortune 500. Alrededor de mil millones de líneas de código pasan por su sistema cada mes, así que disponen de bastantes datos de primera mano. Un extracto del conjunto de cifras del informe: El número de líneas de código producidas por los desarrolladores al mes aumentó de 4.450 a 7.839, un incremento del 76%. El volumen de PR también está creciendo, con la mediana subiendo de 57 a 76 líneas. El aumento para equipos de tamaño medio es aún más exagerado, alcanzando el 89%. De hecho, ya me he quejado antes de que a mucha gente le gusta medir la productividad por el número de líneas de código, porque el código no es un activo sino una carga, y más código significa más difícil de mantener, y más código generado por IA significa más errores que mantener. La distribución de beneficios de las herramientas de programación por IA es extremadamente desigual. En proyectos que ya tienen buena cobertura de pruebas y límites claros de módulos, la IA es una gran adición. Sin embargo, en escenarios donde sistemas heredados complejos requieren un conocimiento profundo del dominio, su ayuda limitada puede incluso ser ineficaz. Pero bueno, ahora la IA hace que el código sea inflacionario es un hecho. La IA ha aumentado el número de líneas de código, ¿ha mejorado la calidad? Desafortunadamente, el informe no menciona esto, al fin y al cabo, las líneas de código son buenas estadísticas y la calidad del código no es fácil de medir. Los datos del informe aún pueden consultarse. En cuanto a ecología de herramientas, el mercado de bases de datos vectoriales compite actualmente con el ciervo, con Weaviate liderando con un 25% de cuota, pero las siguientes seis o siete empresas están entre el 10% y el 25%, y el ganador aún no se ha determinado. mem0 representa el 59% del paquete de memoria de IA, muy por delante. En cuanto a archivos de reglas, CLAUDE .md encabezó la lista con una tasa de adopción del 67%, lo que indica que hay muchos desarrolladores que usan Claude como agentes de programación. La tendencia de descargar SDK es aún más interesante. OpenAI sigue siendo el líder absoluto, con 130 millones de descargas al mes. Pero la tasa de crecimiento de Anthropic ha sido asombrosa, aumentando 1.547 veces desde abril de 2023 hasta ahora, y ahora se mantiene estable en 43 millones. La proporción de descargas entre OpenAI y Anthropic se ha reducido de 47:1 a principios de 2024 a 4,2:1 ahora. El SDK GenAI de Google sigue en 13,6 millones, muy por detrás. En la sección de comparación de rendimiento de modelos, se probaron GPT-5.1, GPT-5-Codex, Claude Sonnet 4.5, Claude Opus 4.5 y Gemini 3 Pro. Son destacados varios hallazgos. El tiempo de respuesta del primer token es inferior a 2,5 segundos para ambos modelos Anthropic, mientras que los otros tres son más del doble. No subestimes estos pocos segundos: en escenarios de programación interactiva, tu pensamiento se interrumpirá si esperas mucho tiempo y tendrás que volver a entrar en el estado. En cuanto a rendimiento, los dos modelos de OpenAI son los más rápidos, con una mediana de 60-70 tokens por segundo. Anthropic está entre 17 y 20 años y Géminis solo 4-5. Pero un alto rendimiento no lo significa todo, depende de si tu situación de uso realmente necesita ser tan rápida. La comparación de costes está fijada en 1x según el códice GPT-5, GPT-5.1 también es 1x, Gemini 3 Pro es 1.4x, Claude Sonnet 4.5 es 2x y Claude Opus 4.5 es 3.3x. El modelo de Anthropic es significativamente más caro, pero muchos usuarios encuentran mejor la calidad del código y están dispuestos a pagar por ello. El informe concluye con un conjunto de investigaciones recientes, incluyendo la arquitectura MoE de DeepSeek-V3, el equilibrio entre contexto largo y RAG, y el marco de agentes de memoria constante para MEM1. Esta parte es más bien una lista de lectura para desarrolladores profesionales, no una ampliación.