Границы между GPU и HBM размываются… Следующее поколение HBM будет встраивать ядра GPU Разрабатывается метод установки графических процессоров (GPU) на память с высокой пропускной способностью следующего поколения (HBM). Это новая технология, которую пытаются реализовать крупные мировые технологические компании для улучшения производительности Искусственного Интеллекта (AI). Это означает, что границы между полупроводниковыми компаниями разрушаются на фоне слияния памяти и системных полупроводников. Согласно обширным отчетам от 26 числа, Meta и NVIDIA рассматривают планы по установке ядер GPU на HBM. В частности, это включает в себя встраивание ядер GPU в базовый кристалл, расположенный внизу стека HBM, и в настоящее время они исследуют возможность сотрудничества с SK Hynix и Samsung Electronics. Несколько инсайдеров отрасли, знакомых с ситуацией, заявили: "Обсуждаются архитектуры 'кастомного HBM' следующего поколения, и среди них разрабатывается структура, которая напрямую интегрирует ядра GPU в базовый кристалл HBM." HBM — это высокопроизводительная память, созданная путем укладки нескольких чипов DRAM. Она была разработана для приложений AI, которые требуют обработки огромных объемов данных. В настоящее время базовый кристалл отвечает за связь между памятью и внешним миром в самом низу структуры HBM. Следующий шаг — это включение 'контроллера', как реализовано в HBM4. Отрасль пытается повысить производительность и эффективность, добавляя полупроводник, способный контролировать память. HBM4 — это продукт, который планируется к полномасштабному массовому производству, начиная с следующего года. Встраивание ядер GPU интерпретируется как технология, которая на несколько шагов опережает контроллер HBM4. В GPU и CPU ядро — это базовая единица, способная к независимым вычислениям. Например, 4-ядерный GPU означает, что есть четыре ядра, способных к вычислениям; чем больше ядер, тем выше вычислительная производительность. Встраивание ядер в HBM — это попытка распределить вычислительные функции, которые были сосредоточены в GPU, по памяти, тем самым уменьшая перемещение данных и снижая нагрузку на основной корпус GPU. Один из представителей отрасли объяснил: "В вычислениях AI важным фактором является не только скорость, но и энергоэффективность," добавив: "Сокращение физического расстояния между памятью и вычислительными единицами может снизить как задержку передачи данных, так и потребление энергии." Однако технические проблемы остаются. Из-за особенностей процесса Through-Silicon Via (TSV) пространство, доступное для размещения ядер GPU в базовом кристалле HBM, очень ограничено. Питание и теплоотведение также являются серьезными проблемами. Поскольку вычислительные ядра GPU потребляют много энергии и выделяют значительное количество тепла, терморегулирование может стать узким местом. Это развитие может стать как возможностью, так и кризисом для отечественной полупроводниковой отрасли. Если компании обладают возможностями по производству или упаковке для реализации CPU или GPU, это становится возможностью для дальнейшего развития HBM и продолжения лидерства на рынке полупроводников AI. Однако существует опасение, что если возможности реагирования будут недостаточны, они могут стать зависимыми от отрасли системных полупроводников. Ким Чжон-хо, профессор Школы электротехники KAIST, сказал: "Скорость технологического перехода, при котором граница между памятью и системными полупроводниками разрушается для продвижения AI, будет ускоряться," и добавил: "Отечественные компании должны расширить свою экосистему за пределы памяти в сектор логики, чтобы опередить рынок HBM следующего поколения."