Chủ đề thịnh hành
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Ranh giới giữa GPU và HBM đang sụp đổ… HBM thế hệ tiếp theo sẽ tích hợp các lõi GPU
Một phương pháp lắp đặt Đơn vị Xử lý Đồ họa (GPU) lên bộ nhớ Băng thông Cao (HBM) thế hệ tiếp theo đang được theo đuổi. Đây là một công nghệ mới được các công ty công nghệ lớn toàn cầu thử nghiệm nhằm cải thiện hiệu suất Trí tuệ Nhân tạo (AI). Điều này có nghĩa là ranh giới giữa các công ty bán dẫn đang bị xóa nhòa giữa sự hội tụ của bộ nhớ và các bán dẫn hệ thống.
Theo báo cáo toàn diện vào ngày 26, Meta và NVIDIA đang xem xét kế hoạch lắp đặt các lõi GPU trên HBM. Cụ thể, điều này liên quan đến việc tích hợp các lõi GPU vào die cơ sở nằm ở đáy của chồng HBM, và họ hiện đang khám phá sự hợp tác với SK Hynix và Samsung Electronics.
Nhiều người trong ngành quen thuộc với vấn đề này cho biết, "Các kiến trúc 'HBM tùy chỉnh' thế hệ tiếp theo đang được thảo luận, và trong số đó, một cấu trúc tích hợp trực tiếp các lõi GPU vào die cơ sở HBM đang được theo đuổi."
HBM là một bộ nhớ hiệu suất cao được tạo ra bằng cách xếp chồng nhiều chip DRAM. Nó được thiết kế cho các ứng dụng AI cần xử lý một lượng lớn dữ liệu.
Hiện tại, die cơ sở chịu trách nhiệm cho việc giao tiếp giữa bộ nhớ và thế giới bên ngoài ở đáy của cấu trúc HBM. Một bước tiến từ đây là việc bao gồm một 'bộ điều khiển' như đã thực hiện trong HBM4. Ngành công nghiệp đang cố gắng nâng cao hiệu suất và hiệu quả bằng cách thêm một bán dẫn có khả năng điều khiển bộ nhớ. HBM4 là một sản phẩm dự kiến sẽ bắt đầu sản xuất hàng loạt quy mô lớn từ năm sau.
Việc tích hợp các lõi GPU được hiểu là một công nghệ tiến bộ hơn một vài bước so với bộ điều khiển HBM4. Trong GPU và CPU, một lõi là đơn vị cơ bản có khả năng tính toán độc lập. Ví dụ, một GPU 4 lõi có nghĩa là có bốn lõi có khả năng tính toán; càng nhiều lõi thì hiệu suất tính toán càng được cải thiện.
Việc đưa các lõi vào HBM là một nỗ lực phân phối các chức năng tính toán đã tập trung trong GPU sang bộ nhớ, từ đó giảm chuyển động dữ liệu và giảm gánh nặng cho thân GPU chính.
Một quan chức trong ngành giải thích, "Trong tính toán AI, một yếu tố quan trọng không chỉ là tốc độ mà còn là hiệu quả năng lượng," và thêm vào đó, "Giảm khoảng cách vật lý giữa bộ nhớ và các đơn vị tính toán có thể giảm độ trễ chuyển dữ liệu và tiêu thụ điện năng."
Tuy nhiên, vẫn còn những thách thức kỹ thuật. Do đặc điểm của quy trình Through-Silicon Via (TSV), không gian có sẵn để chứa các lõi GPU trong die cơ sở HBM là rất hạn chế. Cung cấp điện và tản nhiệt cũng là những vấn đề lớn. Vì các lõi tính toán GPU tiêu thụ điện năng cao và tạo ra nhiệt lượng đáng kể, việc kiểm soát nhiệt có thể trở thành một nút thắt cổ chai.
Phát triển này có thể vừa là cơ hội vừa là khủng hoảng cho ngành công nghiệp bán dẫn trong nước. Nếu các công ty sở hữu khả năng gia công hoặc đóng gói để triển khai CPU hoặc GPU, đây sẽ là cơ hội để phát triển HBM hơn nữa và tiếp tục dẫn đầu thị trường bán dẫn AI. Tuy nhiên, có lo ngại rằng nếu khả năng phản ứng thiếu hụt, họ có thể trở thành phụ thuộc vào ngành công nghiệp bán dẫn hệ thống.
Kim Joung-ho, một giáo sư tại Trường Kỹ thuật Điện của KAIST, cho biết, "Tốc độ chuyển giao công nghệ nơi ranh giới giữa bộ nhớ và bán dẫn hệ thống sụp đổ để thúc đẩy AI sẽ tăng tốc," và thêm vào đó, "Các công ty trong nước phải mở rộng hệ sinh thái của họ ra ngoài bộ nhớ vào lĩnh vực logic để chiếm ưu thế trong thị trường HBM thế hệ tiếp theo."

Hàng đầu
Thứ hạng
Yêu thích

