Greptile właśnie opublikował raport "Stan programowania AI w 2025 roku", firma ta zajmuje się przeglądem kodu AI, a jej klienci to zarówno gwiazdy startupowe, takie jak PostHog i Brex, jak i firmy z listy Fortune 500. Co miesiąc przez ich system przechodzi około miliarda linii kodu, więc mają sporo danych z pierwszej ręki. Oto fragmenty z raportu: liczba linii kodu produkowanych przez programistów wzrosła z 4 450 do 7 839 linii, co stanowi wzrost o 76%. Objętość PR również rośnie, mediana wzrosła z 57 do 76 linii. Wzrost w średnich zespołach jest jeszcze bardziej dramatyczny, osiągając 89%. Właściwie już wcześniej narzekałem, że wiele osób lubi używać liczby linii kodu jako miary wydajności, ponieważ kod nie jest aktywem, lecz zobowiązaniem; im więcej kodu, tym trudniej go utrzymać, a więcej kodu generowanego przez AI oznacza, że trudniej jest utrzymać, a błędów jest więcej. Rozkład korzyści z narzędzi AI jest bardzo nierówny. W projektach, które mają dobre pokrycie testowe i wyraźne granice modułów, AI działa jak zastrzyk energii. Jednak w złożonych systemach dziedziczonych, które wymagają głębokiej wiedzy dziedzinowej, jego pomoc jest ograniczona, a nawet może być szkodliwa. Jednak niezależnie od wszystkiego, fakt, że AI powoduje inflację kodu, jest już rzeczywistością. AI zwiększa liczbę linii kodu, więc czy jakość się poprawiła? Niestety raport nie porusza tej kwestii, w końcu łatwo jest policzyć linie kodu, ale jakość kodu jest trudna do zmierzenia. Dane w raporcie są jednak warte uwagi. W części dotyczącej ekosystemu narzędzi, rynek baz danych wektorowych obecnie jest pełen rywalizujących graczy, Weaviate prowadzi z 25% udziałem, ale za nim podąża sześć lub siedem firm, które mają od 10% do 25%, więc jeszcze nie wyłonił się zwycięzca. W pakiecie pamięci AI mem0 zajmuje 59%, co jest znaczną przewagą. W przypadku plików reguł, CLAUDE .md z 67% wskaźnikiem adopcji zajmuje pierwsze miejsce, co pokazuje, że jest wielu programistów korzystających z Claude do tworzenia inteligentnych agentów programistycznych. Trend zmian w pobraniach SDK jest jeszcze ciekawszy. OpenAI nadal zdecydowanie prowadzi, z miesięcznymi pobraniami wynoszącymi 130 milionów. Jednak wzrost Anthropic jest oszałamiający, od kwietnia 2023 roku wzrósł 1547 razy, obecnie stabilizując się na 43 milionach. Stosunek pobrań OpenAI do Anthropic zmniejszył się z 47:1 na początku 2024 roku do obecnych 4,2:1. Google GenAI SDK wciąż ma 13,6 miliona, co jest wyraźnym opóźnieniem. W części porównania wydajności modeli przetestowano GPT-5.1, GPT-5-Codex, Claude Sonnet 4.5, Claude Opus 4.5 i Gemini 3 Pro. Kilka odkryć zasługuje na uwagę. Czas odpowiedzi na pierwszy token, oba modele Anthropic są poniżej 2,5 sekundy, podczas gdy pozostałe trzy potrzebują ponad dwukrotnie więcej. Nie lekceważ tych kilku sekund — w interaktywnych scenariuszach programowania, długi czas oczekiwania przerywa twoje myślenie, musisz na nowo wejść w stan. W zakresie przepustowości, dwa modele OpenAI są najszybsze, mediana osiąga 60-70 tokenów/sek. Anthropic ma 17-20, a Gemini tylko 4-5. Jednak wysoka przepustowość nie oznacza wszystkiego, trzeba również sprawdzić, czy twoje zastosowanie naprawdę wymaga takiej szybkości. Porównanie kosztów ustawia GPT-5 Codex jako 1x, GPT-5.1 również jako 1x, Gemini 3 Pro to 1,4x, Claude Sonnet 4.5 to 2x, a Claude Opus 4.5 to 3,3x. Modele Anthropic są wyraźnie droższe, ale wielu użytkowników uważa, że jakość kodu jest lepsza i jest gotowych za to zapłacić. Na końcu raportu przedstawiono szereg najnowszych badań, w tym architekturę MoE DeepSeek-V3, kompromis między długim kontekstem a RAG, ramy inteligentnych agentów z stałą pamięcią MEM1 itd. Ta część bardziej przypomina listę lektur dla profesjonalnych programistów, więc nie będę jej rozwijał.