Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Greptile hat gerade einen Bericht über den Stand der AI-Programmierung im Jahr 2025 veröffentlicht. Das Unternehmen ist auf die Überprüfung von AI-Code spezialisiert, und die Kunden reichen von Star-Startups wie PostHog und Brex bis hin zu Fortune-500-Unternehmen. Monatlich werden etwa eine Milliarde Codezeilen durch ihr System verarbeitet, sodass sie über eine Menge an Erstdaten verfügen.
Ein Auszug aus einer Gruppe von Zahlen im Bericht: Die Anzahl der Codezeilen, die von Entwicklern monatlich produziert werden, ist von 4.450 auf 7.839 gestiegen, was einem Anstieg von 76 % entspricht. Auch das Volumen der PRs wächst, der Median ist von 57 auf 76 Zeilen gestiegen. Der Anstieg bei mittelgroßen Teams ist noch ausgeprägter und erreicht 89 %.
Ich habe früher schon oft kritisiert, dass viele Leute gerne die Anzahl der Codezeilen zur Messung der Produktivität verwenden, denn Code ist keine Vermögenswerte, sondern eine Verbindlichkeit. Je mehr Code es gibt, desto schwieriger ist die Wartung; mehr AI-generierter Code bedeutet auch, dass es schwieriger wird, Bugs zu warten.
Die Ertragsverteilung von AI-Programmierungswerkzeugen ist extrem ungleich. In Projekten mit bereits guter Testabdeckung und klaren Modulgrenzen ist AI eine große Hilfe. Aber in komplexen Altsystemen, die tiefes Fachwissen erfordern, ist ihre Hilfe begrenzt oder kann sogar kontraproduktiv sein.
Aber wie dem auch sei, es ist ein Fakt, dass AI die Codeinflation vorantreibt.
Wenn AI die Anzahl der Codezeilen erhöht, hat sich dann die Qualität verbessert?
Leider wird dieses Thema im Bericht nicht angesprochen, schließlich sind Codezeilen leicht zu zählen, die Codequalität hingegen schwer zu messen.
Die Daten im Bericht sind dennoch einen Blick wert.
Im Bereich der Werkzeugökosysteme gibt es derzeit einen Wettbewerb im Markt für Vektordatenbanken, Weaviate führt mit einem Marktanteil von 25 %, gefolgt von sechs oder sieben anderen, die zwischen 10 % und 25 % liegen, und es ist noch kein Sieger ermittelt. Im Bereich AI-Speicher hat mem0 einen Anteil von 59 % und führt damit deutlich. Bei den Regeldateien hat CLAUDE .md mit einer Übernahmequote von 67 % die Spitze erreicht, was darauf hinweist, dass es tatsächlich viele Entwickler gibt, die Claude zur Entwicklung von Programmieragenten verwenden.
Die Veränderung der Downloadzahlen von SDKs ist noch interessanter. OpenAI bleibt absolut führend mit monatlich 130 Millionen Downloads. Aber das Wachstum von Anthropic ist erstaunlich, von April 2023 bis jetzt um das 1547-fache gestiegen und stabil bei 43 Millionen. Das Downloadverhältnis zwischen OpenAI und Anthropic hat sich von 47:1 Anfang 2024 auf jetzt 4,2:1 verringert. Googles GenAI SDK liegt bei 13,6 Millionen und bleibt deutlich zurück.
Im Vergleich der Modellleistungen wurden GPT-5.1, GPT-5-Codex, Claude Sonnet 4.5, Claude Opus 4.5 und Gemini 3 Pro getestet. Einige Erkenntnisse sind bemerkenswert.
Die Antwortzeit des ersten Tokens liegt bei den beiden Modellen von Anthropic unter 2,5 Sekunden, während die anderen drei mehr als das Doppelte benötigen. Unterschätzen Sie diese paar Sekunden nicht – in interaktiven Programmier-Szenarien kann eine lange Wartezeit dazu führen, dass Ihre Gedanken abreißen und Sie wieder in den Zustand zurückfinden müssen.
In Bezug auf die Durchsatzrate sind die beiden Modelle von OpenAI die schnellsten, mit einem Median von 60-70 Tokens/Sekunde. Anthropic liegt bei 17-20, Gemini nur bei 4-5. Aber ein hoher Durchsatz bedeutet nicht alles; es kommt darauf an, ob Ihr Nutzungsszenario wirklich so schnell sein muss.
Die Kosten im Vergleich wurden auf der Basis von GPT-5 Codex auf 1x festgelegt, GPT-5.1 ebenfalls auf 1x, Gemini 3 Pro auf 1,4x, Claude Sonnet 4.5 auf 2x und Claude Opus 4.5 auf 3,3x. Die Modelle von Anthropic sind deutlich teurer, aber viele Nutzer glauben, dass die Codequalität besser ist und sind bereit, dafür zu zahlen.
Am Ende des Berichts wird eine Reihe neuester Forschungen vorgestellt, darunter die MoE-Architektur von DeepSeek-V3, die Abwägung zwischen langem Kontext und RAG, das konstante Speicher-Intelligent-Agenten-Framework von MEM1 usw. Dieser Teil ähnelt eher einer Leseliste für professionelle Entwickler, daher werde ich nicht weiter darauf eingehen.

Top
Ranking
Favoriten
