Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Greptile acaba de publicar un informe titulado "Estado de la programación AI en 2025", esta empresa se dedica a la revisión de código AI, con clientes que van desde startups destacadas como PostHog y Brex hasta empresas de la lista Fortune 500. Aproximadamente mil millones de líneas de código pasan por su sistema cada mes, por lo que tienen una buena cantidad de datos de primera mano.
Extracto de un conjunto de números del informe: el número de líneas de código producidas por los desarrolladores al mes ha aumentado de 4,450 a 7,839 líneas, un incremento del 76%. El tamaño de las PR también está creciendo, con una mediana que ha pasado de 57 a 76 líneas. El aumento en equipos medianos es aún más notable, alcanzando el 89%.
De hecho, ya he criticado anteriormente que muchas personas tienden a usar el número de líneas de código como medida de productividad, porque el código no es un activo, es un pasivo; cuanto más código hay, más difícil es mantenerlo. Más código generado por AI también significa que es más difícil de mantener y hay más errores.
La distribución de beneficios de las herramientas de programación AI es extremadamente desigual. En proyectos que ya tienen una buena cobertura de pruebas y límites de módulos claros, la AI es como un impulso adicional. Pero en sistemas heredados complejos, donde se necesita un profundo conocimiento del dominio, su ayuda es limitada e incluso puede ser contraproducente.
Pero de todos modos, ahora es un hecho que la AI ha provocado una inflación en el código.
La AI ha aumentado el número de líneas de código, ¿ha mejorado la calidad?
Lamentablemente, el informe no menciona este asunto, ya que es fácil contar líneas de código, pero medir la calidad del código es complicado.
Los datos del informe aún son interesantes de revisar.
En la parte del ecosistema de herramientas, el mercado de bases de datos vectoriales actualmente está muy competido, Weaviate lidera con un 25% de cuota, pero detrás hay seis o siete empresas que están entre el 10% y el 25%, aún no se ha decidido un ganador. En el paquete de memoria AI, mem0 representa el 59%, liderando con gran diferencia. En cuanto a los archivos de reglas, CLAUDE .md tiene una tasa de adopción del 67%, lo que indica que hay bastantes desarrolladores utilizando Claude para crear agentes de programación.
La tendencia en la cantidad de descargas de SDK es aún más interesante. OpenAI sigue siendo el líder absoluto, con 130 millones de descargas al mes. Pero el crecimiento de Anthropic es sorprendente, ha crecido 1547 veces desde abril de 2023 hasta ahora, estabilizándose en 43 millones. La proporción de descargas entre OpenAI y Anthropic ha disminuido de 47:1 a principios de 2024 a 4.2:1 en la actualidad. El SDK GenAI de Google se mantiene en 13.6 millones, claramente rezagado.
En la parte de comparación de rendimiento de modelos, se probaron GPT-5.1, GPT-5-Codex, Claude Sonnet 4.5, Claude Opus 4.5 y Gemini 3 Pro. Hay varios hallazgos que merecen atención.
El tiempo de respuesta del primer token, los dos modelos de Anthropic están por debajo de 2.5 segundos, mientras que los otros tres tardan más del doble. No subestimes estos segundos: en un escenario de programación interactiva, si el tiempo de espera es largo, tu pensamiento se interrumpe y tienes que volver a entrar en estado.
En términos de rendimiento, los dos modelos de OpenAI son los más rápidos, con una mediana de 60-70 tokens/segundo. Anthropic está entre 17-20, y Gemini solo tiene 4-5. Pero un alto rendimiento no lo es todo, también hay que considerar si tu escenario de uso realmente necesita esa velocidad.
En la comparación de costos, tomando GPT-5 Codex como base establecida en 1x, GPT-5.1 también es 1x, Gemini 3 Pro es 1.4x, Claude Sonnet 4.5 es 2x, y Claude Opus 4.5 es 3.3x. Los modelos de Anthropic son claramente más caros, pero muchos usuarios sienten que la calidad del código es mejor y están dispuestos a pagar por ello.
El informe concluye presentando una serie de investigaciones recientes, incluyendo la arquitectura MoE de DeepSeek-V3, las compensaciones entre contexto largo y RAG, el marco de agentes de memoria constante MEM1, etc. Esta parte se asemeja más a una lista de lectura para desarrolladores profesionales, así que no me extenderé más.

Parte superior
Clasificación
Favoritos
