Актуальные темы
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

宝玉
Prompt Engineer, предназначенный для изучения и распространения знаний об искусственном интеллекте, разработке программного обеспечения и управлении инженерией.
Greptile только что выпустила отчет «Состояние AI-программирования в 2025 году», эта компания занимается проверкой AI-кода, ее клиентами являются такие звездные стартапы, как PostHog и Brex, а также компании из списка Fortune 500. Каждый месяц через их систему проходит около миллиарда строк кода, так что у них есть немало первичных данных.
Извлечение из отчета одной группы цифр: количество строк кода, производимых разработчиками каждый месяц, увеличилось с 4,450 до 7,839 строк, рост составил 76%. Объем PR также увеличивается, медиана выросла с 57 до 76 строк. Увеличение в средних командах еще более впечатляющее, достигнув 89%.
На самом деле, я уже раньше жаловался, что многие любят использовать количество строк кода для измерения производительности, потому что код не является активом, а является обязательством; чем больше кода, тем сложнее его поддерживать, а большее количество AI-сгенерированного кода также означает, что его сложнее поддерживать, и больше ошибок.
Распределение доходов от AI-программных инструментов крайне неравномерно. В проектах с хорошим покрытием тестами и четкими границами модулей AI как бы подстегивает процесс. Но в сложных унаследованных системах, где требуется глубокое знание области, его помощь ограничена и даже может быть контрпродуктивной.
Но, как бы то ни было, сейчас AI действительно вызывает инфляцию кода.
AI увеличивает количество строк кода, так стало ли качество лучше?
К сожалению, отчет не упоминает об этом, ведь количество строк кода легко подсчитать, а качество кода трудно оценить.
Данные из отчета все же стоит посмотреть.
Что касается экосистемы инструментов, на рынке векторных баз данных сейчас идет борьба, Weaviate лидирует с долей 25%, но за ним следуют шесть-семь компаний с долей от 10% до 25%, победитель еще не определен. В пакете AI-памяти mem0 занимает 59%, что значительно больше остальных. В области файлов правил CLAUDE .md с 67% уровня принятия занимает первое место, что говорит о том, что разработчиков, использующих Claude для создания программных агентов, действительно много.
Тенденция изменения количества загрузок SDK более интересна. OpenAI по-прежнему абсолютный лидер, с 130 миллионами загрузок в месяц. Но рост Anthropic поразителен, с апреля 2023 года он увеличился в 1547 раз и сейчас стабилизировался на уровне 43 миллионов. Соотношение загрузок OpenAI и Anthropic сократилось с 47:1 в начале 2024 года до 4.2:1 сейчас. Google GenAI SDK все еще на уровне 13.6 миллиона, что явно отстает.
Что касается сравнения производительности моделей, тестировались GPT-5.1, GPT-5-Codex, Claude Sonnet 4.5, Claude Opus 4.5 и Gemini 3 Pro. Несколько находок заслуживают внимания.
Время отклика первого токена, обе модели Anthropic укладываются в 2.5 секунды, остальные три требуют более двух секунд. Не стоит недооценивать эти несколько секунд — в интерактивных сценариях программирования, если время ожидания слишком долгое, ваши мысли могут сбиться, и вам придется заново входить в состояние.
Что касается пропускной способности, две модели OpenAI самые быстрые, медиана достигает 60-70 токенов/сек. Anthropic находится в диапазоне 17-20, а Gemini всего 4-5. Но высокая пропускная способность не означает, что это все, нужно также учитывать, действительно ли ваш сценарий использования требует такой скорости.
Сравнение затрат, принимая GPT-5 Codex за базу, установлено на уровне 1x, GPT-5.1 также 1x, Gemini 3 Pro — 1.4x, Claude Sonnet 4.5 — 2x, Claude Opus 4.5 — 3.3x. Модели Anthropic явно дороже, но многие пользователи считают, что качество кода лучше и готовы за это платить.
В конце отчета представлена группа последних исследований, включая архитектуру MoE DeepSeek-V3, компромисс между длинным контекстом и RAG, постоянную память для интеллектуальных агентов MEM1 и т.д. Эта часть больше похожа на список чтения для профессиональных разработчиков, не буду углубляться.


Daksh Gupta23 часа назад
Сегодня мы публикуем первый ежегодный отчет "Состояние AI-кодирования".
В @greptile мы анализируем миллиард строк кода в месяц, написанных каждым возможным агентом кодирования.
Это означает, что у нас есть много данных.
В этом отчете мы собрали некоторые из самых интересных тенденций, которые мы наблюдали в этом году.
Ссылка ниже:
453
Поделитесь подсказками для создания сатирических комиксов:
Нарисуйте сатирический комикс в стиле Динь Чона, тема:
> Сегодня в социальных сетях восхваляют так называемых гуру ИИ, которые на самом деле просто Prompt Kiddie (малыши с подсказками).
> Целый день перепостивают какие-то подсказки, на самом деле автоматически выступая в роли топлива для больших моделей.

122
Топ
Рейтинг
Избранное
