Chủ đề thịnh hành
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
🎉 “Bản chất của lập trình AI là quản lý ngữ cảnh”
Câu này thật sự rất hữu ích, nó có thể giải thích quá trình phát triển và xu hướng tương lai của ứng dụng AI.
Nếu nói LLM là CPU, thì ngữ cảnh chính là bộ nhớ,
và dung lượng bộ nhớ là có hạn, việc lựa chọn dữ liệu trở thành yếu tố then chốt cho chất lượng đầu ra của mô hình.
❓ Vậy trong bộ nhớ ngữ cảnh này sẽ lưu trữ gì? Cần tối ưu như thế nào?
1️⃣ Hệ thống gợi ý
Tối ưu hóa chính là bộ gợi ý trước đây, vì vậy các yếu tố cốt lõi của gợi ý xuất sắc phải được sắp xếp. Nhưng gợi ý đã không còn mới mẻ, ngữ cảnh mới là hot, tất cả các ứng dụng AI đều đang theo kịp.
2️⃣ Danh sách công cụ
Nếu thông tin ngữ cảnh không đủ, cần gọi công cụ để lấy, ban đầu ứng dụng AI chỉ có một số công cụ cốt lõi (đọc/ghi tệp, thực hiện lệnh), sau đó thông qua MCP đã mở rộng nhiều công cụ và dịch vụ bên ngoài.
3️⃣ Tệp (thư viện kiến thức/rag)
Tài liệu liên quan đến vấn đề cũng rất quan trọng, các IDE như Cursor sẽ tự động lưu trữ tệp hiện đang mở, tệp đã mở gần đây, tệp liên quan đến vấn đề và mã quan trọng đã được tìm thấy vào ngữ cảnh.
Hơn nữa, ngữ cảnh sẽ tự động quản lý dữ liệu bộ nhớ, giống như thao tác dọn dẹp bộ nhớ, dữ liệu không có ích sẽ bị thay thế, dữ liệu hữu ích sẽ được đưa lên trước để tăng trọng số, v.v.
❓ Tất cả những điều này có vẻ tốt, tại sao cc lại tạo ra một subagent?
Khi cuộc trò chuyện diễn ra, nội dung trong ngữ cảnh ngày càng nhiều, sắp nổ tung rồi!
LLM để trả lời câu hỏi, có thể sẽ gọi công cụ nhiều lần (ví dụ đọc tệp), kết quả trả về từ công cụ + nội dung tệp đã tải, liên tục bổ sung vào ngữ cảnh, ngữ cảnh của agent chính rất dễ bị nổ tung, chất lượng đầu ra của mô hình bắt đầu giảm, thậm chí xuất hiện ảo giác.
...
Hàng đầu
Thứ hạng
Yêu thích

