Chủ đề thịnh hành
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

宝玉
Prompt Engineer, chuyên học hỏi và phổ biến kiến thức về AI, kỹ thuật phần mềm và quản lý kỹ thuật.
Nếu như Beanbag Seedance 1.5 Pro được phát sớm hơn, tôi có thể tiết kiệm được vài giờ. Vài ngày trước, khi tôi đang vọc video AI, thời gian cho hình ảnh đầu tiên và kịch bản không tốn nhiều, nhưng để làm video đồng bộ âm thanh và hình ảnh dựa trên hình ảnh đầu tiên và kịch bản thì mất rất nhiều thời gian:
Google Veo 3.1 hỗ trợ tiếng Trung không tốt, Sora 2 thường xuyên nói nhầm người và lời nói, như là Ngọc Hoàng nói lời của Đường Tăng, cần phải rút thẻ nhiều lần, mà không mấy lần đã đến giới hạn.
Hôm nay tôi đã thử nghiệm Beanbag Seedance 1.5 Pro với cùng một hình ảnh và từ khóa, hầu hết các cảnh đều thành công ngay lần đầu, hiệu ứng cũng khá tốt, nhân vật và lời thoại tương ứng rất tốt, khẩu hình cũng khớp.
Ví dụ như hình 1, chú gấu trúc nói tiếng địa phương mà con tôi rất thích, từ khóa cũng rất đơn giản, chỉ cần gửi hình ảnh gấu trúc con và từ khóa bên dưới là đã tạo ra được:
> Chú gấu trúc vừa ăn măng, vừa nói bằng giọng ngọt ngào bằng tiếng Tứ Xuyên: “Ôi trời ơi~ Mặt trời chiếu ấm áp, tôi đang gặm một cái măng, từ từ béo lên~”.
452
Greptile vừa phát hành một báo cáo có tiêu đề "Báo cáo về tình trạng lập trình AI năm 2025", công ty này chuyên về kiểm tra mã AI, với khách hàng từ các công ty khởi nghiệp nổi tiếng như PostHog, Brex cho đến các công ty trong danh sách Fortune 500. Mỗi tháng, khoảng một tỷ dòng mã được xử lý qua hệ thống của họ, vì vậy họ có rất nhiều dữ liệu gốc.
Trích dẫn một nhóm số liệu trong báo cáo: số dòng mã mà các nhà phát triển sản xuất mỗi tháng đã tăng từ 4,450 dòng lên 7,839 dòng, tăng 76%. Kích thước PR cũng đang gia tăng, với mức trung bình từ 57 dòng tăng lên 76 dòng. Sự gia tăng của các nhóm trung bình còn ấn tượng hơn, đạt 89%.
Thực ra, tôi đã từng phê phán nhiều người thích sử dụng số dòng mã để đo lường năng suất, vì mã không phải là tài sản mà là gánh nặng, càng nhiều mã có nghĩa là càng khó bảo trì, mã do AI tạo ra nhiều cũng có nghĩa là khó bảo trì hơn và nhiều lỗi hơn.
Phân phối lợi ích của các công cụ lập trình AI rất không đồng đều. Trong các dự án đã có độ phủ kiểm tra tốt và ranh giới module rõ ràng, AI như hổ thêm cánh. Nhưng trong các hệ thống kế thừa phức tạp, cần kiến thức chuyên sâu, sự trợ giúp của nó có hạn và thậm chí có thể gây rắc rối.
Nhưng dù sao đi nữa, hiện tại AI đã khiến mã bị lạm phát là một thực tế.
AI đã làm tăng số dòng mã, vậy chất lượng có cải thiện không?
Rất tiếc, báo cáo không đề cập đến vấn đề này, vì số dòng mã dễ thống kê, nhưng chất lượng mã thì khó đo lường.
Dữ liệu trong báo cáo vẫn đáng để xem.
Phần hệ sinh thái công cụ, thị trường cơ sở dữ liệu vector hiện đang cạnh tranh khốc liệt, Weaviate dẫn đầu với 25% thị phần, nhưng sau đó có sáu bảy công ty khác đều nằm trong khoảng 10%-25%, vẫn chưa phân định được thắng bại. Trong gói nhớ AI, mem0 chiếm 59%, dẫn đầu xa.
Về các tệp quy tắc, CLAUDE .md đứng đầu với tỷ lệ áp dụng 67%, cho thấy có khá nhiều nhà phát triển sử dụng Claude để phát triển các tác nhân lập trình.
Xu hướng thay đổi về số lượt tải SDK thì thú vị hơn. OpenAI vẫn dẫn đầu tuyệt đối, với 130 triệu lượt tải mỗi tháng. Nhưng tốc độ tăng trưởng của Anthropic thì đáng kinh ngạc, từ tháng 4 năm 2023 đến nay đã tăng 1547 lần, hiện ổn định ở mức 43 triệu. Tỷ lệ tải xuống giữa OpenAI và Anthropic đã giảm từ 47:1 vào đầu năm 2024 xuống còn 4.2:1 hiện tại. SDK GenAI của Google vẫn ở mức 13.6 triệu, rõ ràng là tụt lại.
Phần so sánh hiệu suất mô hình, đã thử nghiệm GPT-5.1, GPT-5-Codex, Claude Sonnet 4.5, Claude Opus 4.5 và Gemini 3 Pro. Một số phát hiện đáng chú ý.
Thời gian phản hồi token đầu tiên, hai mô hình của Anthropic đều dưới 2.5 giây, ba mô hình còn lại phải mất hơn gấp đôi thời gian. Đừng xem nhẹ vài giây này - trong bối cảnh lập trình tương tác, nếu thời gian chờ quá lâu, ý tưởng của bạn sẽ bị gián đoạn, bạn phải quay lại trạng thái ban đầu.
Về thông lượng, hai mô hình của OpenAI nhanh nhất, với mức trung bình có thể đạt 60-70 tokens/giây. Anthropic ở mức 17-20, còn Gemini chỉ có 4-5. Nhưng thông lượng cao không có nghĩa là tất cả, còn phải xem bối cảnh sử dụng của bạn có thực sự cần nhanh như vậy không.
So sánh chi phí lấy GPT-5 Codex làm chuẩn là 1x, GPT-5.1 cũng là 1x, Gemini 3 Pro là 1.4x, Claude Sonnet 4.5 là 2x, Claude Opus 4.5 là 3.3x. Mô hình của Anthropic rõ ràng đắt hơn, nhưng nhiều người dùng cảm thấy chất lượng mã tốt hơn, sẵn sàng trả tiền cho điều đó.
Cuối báo cáo giới thiệu một loạt nghiên cứu mới nhất, bao gồm kiến trúc MoE của DeepSeek-V3, sự đánh đổi giữa ngữ cảnh dài và RAG, khung tác nhân bộ nhớ cố định MEM1, v.v. Phần này giống như một danh sách đọc dành cho các nhà phát triển chuyên nghiệp, không mở rộng thêm.


Daksh Gupta23:57 17 thg 12
Hôm nay chúng tôi phát hành báo cáo thường niên đầu tiên "Tình trạng Lập trình AI".
Tại @greptile, chúng tôi xem xét một tỷ dòng mã mỗi tháng được viết bởi mọi tác nhân lập trình có thể tưởng tượng.
Điều này có nghĩa là chúng tôi có rất nhiều dữ liệu.
Trong báo cáo này, chúng tôi đã tổng hợp một số xu hướng thú vị nhất mà chúng tôi quan sát được trong năm nay.
Liên kết bên dưới:
496
Hàng đầu
Thứ hạng
Yêu thích
