Greptile только что выпустила отчет «Состояние AI-программирования в 2025 году», эта компания занимается проверкой AI-кода, ее клиентами являются такие звездные стартапы, как PostHog и Brex, а также компании из списка Fortune 500. Каждый месяц через их систему проходит около миллиарда строк кода, так что у них есть немало первичных данных. Извлечение из отчета одной группы цифр: количество строк кода, производимых разработчиками каждый месяц, увеличилось с 4,450 до 7,839 строк, рост составил 76%. Объем PR также увеличивается, медиана выросла с 57 до 76 строк. Увеличение в средних командах еще более впечатляющее, достигнув 89%. На самом деле, я уже раньше жаловался, что многие любят использовать количество строк кода для измерения производительности, потому что код не является активом, а является обязательством; чем больше кода, тем сложнее его поддерживать, а большее количество AI-сгенерированного кода также означает, что его сложнее поддерживать, и больше ошибок. Распределение доходов от AI-программных инструментов крайне неравномерно. В проектах с хорошим покрытием тестами и четкими границами модулей AI как бы подстегивает процесс. Но в сложных унаследованных системах, где требуется глубокое знание области, его помощь ограничена и даже может быть контрпродуктивной. Но, как бы то ни было, сейчас AI действительно вызывает инфляцию кода. AI увеличивает количество строк кода, так стало ли качество лучше? К сожалению, отчет не упоминает об этом, ведь количество строк кода легко подсчитать, а качество кода трудно оценить. Данные из отчета все же стоит посмотреть. Что касается экосистемы инструментов, на рынке векторных баз данных сейчас идет борьба, Weaviate лидирует с долей 25%, но за ним следуют шесть-семь компаний с долей от 10% до 25%, победитель еще не определен. В пакете AI-памяти mem0 занимает 59%, что значительно больше остальных. В области файлов правил CLAUDE .md с 67% уровня принятия занимает первое место, что говорит о том, что разработчиков, использующих Claude для создания программных агентов, действительно много. Тенденция изменения количества загрузок SDK более интересна. OpenAI по-прежнему абсолютный лидер, с 130 миллионами загрузок в месяц. Но рост Anthropic поразителен, с апреля 2023 года он увеличился в 1547 раз и сейчас стабилизировался на уровне 43 миллионов. Соотношение загрузок OpenAI и Anthropic сократилось с 47:1 в начале 2024 года до 4.2:1 сейчас. Google GenAI SDK все еще на уровне 13.6 миллиона, что явно отстает. Что касается сравнения производительности моделей, тестировались GPT-5.1, GPT-5-Codex, Claude Sonnet 4.5, Claude Opus 4.5 и Gemini 3 Pro. Несколько находок заслуживают внимания. Время отклика первого токена, обе модели Anthropic укладываются в 2.5 секунды, остальные три требуют более двух секунд. Не стоит недооценивать эти несколько секунд — в интерактивных сценариях программирования, если время ожидания слишком долгое, ваши мысли могут сбиться, и вам придется заново входить в состояние. Что касается пропускной способности, две модели OpenAI самые быстрые, медиана достигает 60-70 токенов/сек. Anthropic находится в диапазоне 17-20, а Gemini всего 4-5. Но высокая пропускная способность не означает, что это все, нужно также учитывать, действительно ли ваш сценарий использования требует такой скорости. Сравнение затрат, принимая GPT-5 Codex за базу, установлено на уровне 1x, GPT-5.1 также 1x, Gemini 3 Pro — 1.4x, Claude Sonnet 4.5 — 2x, Claude Opus 4.5 — 3.3x. Модели Anthropic явно дороже, но многие пользователи считают, что качество кода лучше и готовы за это платить. В конце отчета представлена группа последних исследований, включая архитектуру MoE DeepSeek-V3, компромисс между длинным контекстом и RAG, постоянную память для интеллектуальных агентов MEM1 и т.д. Эта часть больше похожа на список чтения для профессиональных разработчиков, не буду углубляться.