Greptile har precis släppt en "2025 State of AI Programming Report", ett företag som gör AI-kodgranskningar, och dess kunder sträcker sig från stjärnstartups som PostHog och Brex till Fortune 500-företag. Ungefär en miljard rader kod passerar genom deras system varje månad, så de har ganska mycket förstahandsdata till hands. Ett utdrag ur rapportens siffror: Antalet rader kod som produceras av utvecklare per månad ökade från 4 450 till 7 839, en ökning med 76 %. Volymen av PR ökar också, med medianen som stiger från 57 till 76 linjer. Ökningen för medelstora lag är ännu mer överdriven och når 89 %. Faktum är att jag tidigare har klagat på att många gillar att mäta produktivitet efter antalet rader kod, eftersom kod inte är en tillgång utan en belastning, och mer kod betyder svårare att underhålla, och mer AI-genererad kod innebär fler buggar att underhålla. Fördelningen av fördelar med AI-programmeringsverktyg är extremt ojämn. I projekt som redan har bra testtäckning och tydliga modulgränser är AI ett utmärkt tillskott. Men i scenarier där komplexa äldre system kräver djupgående domänkunskap kan dess begränsade hjälp till och med vara ineffektiv. Men hur som helst, nu är AI som gör kod inflationskänslig ett faktum. AI har ökat antalet rader kod, så har kvaliteten förbättrats? Tyvärr nämner inte rapporten detta, kodrader är trots allt bra statistik och kodkvalitet är inte lätt att mäta. Datan i rapporten kan fortfarande ses. När det gäller verktygsekologi konkurrerar vektordatabasmarknaden för närvarande med hjorten, där Weaviate leder med en andel på 25 %, men de nästa sex eller sju företagen ligger alla mellan 10 % och 25 %, och vinnaren har ännu inte utsetts. mem0 står för 59 % av AI-minnespaketet, långt före. När det gäller regelfiler toppade CLAUDE .md listan med en adoptionsgrad på 67 %, vilket visar att det faktiskt finns många utvecklare som använder Claude som programmeringsagenter. Trenden med SDK-nedladdningar är ännu mer intressant. OpenAI är fortfarande den absoluta ledaren, med 130 miljoner nedladdningar per månad. Men Anthropics tillväxttakt har varit häpnadsväckande, med en ökning på 1 547 gånger från april 2023 till nu, och är nu stabil på 43 miljoner. Nedladdningsförhållandet mellan OpenAI och Anthropic har krympt från 47:1 i början av 2024 till 4,2:1 nu. Googles GenAI SDK ligger fortfarande på 13,6 miljoner, vilket är betydligt efter. I avsnittet om modellprestandajämförelse testades GPT-5.1, GPT-5-Codex, Claude Sonnet 4.5, Claude Opus 4.5 och Gemini 3 Pro. Flera fynd är anmärkningsvärda. Den första tokens svarstid är mindre än 2,5 sekunder för båda antropiska modellerna, medan de andra tre är mer än dubbelt så långa. Underskatta inte dessa få sekunder – i interaktiva programmeringsscenarier avbryts ditt tänkande om du väntar länge, och du måste återgå till tillståndet. När det gäller genomströmning är OpenAIs två modeller de snabbaste, med en median på 60–70 tokens per sekund. Anthropisk är mellan 17-20 och Tvillingarna är bara 4-5. Men hög genomströmning betyder inte allt, det beror på om ditt användningsscenario verkligen behöver vara så snabbt. Kostnadsjämförelsen är satt till 1x baserat på GPT-5 Codex, GPT-5.1 är också 1x, Gemini 3 Pro är 1,4x, Claude Sonnet 4.5 är 2x och Claude Opus 4.5 är 3,3x. Anthropics modell är betydligt dyrare, men många användare tycker att kodkvaliteten är bättre och är villiga att betala för den. Rapporten avslutas med en omgång nyare forskning, inklusive MoE-arkitekturen för DeepSeek-V3, avvägningen mellan lång kontext och RAG, samt ramverket för konstant minnesagent för MEM1. Den här delen är mer som en läslista för professionella utvecklare, inte utökad.