Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Les frontières entre les GPU et la HBM s'effondrent… La prochaine génération de HBM intégrera des cœurs de GPU
Une méthode de montage des unités de traitement graphique (GPU) sur la mémoire à large bande passante de nouvelle génération (HBM) est en cours d'exploration. Il s'agit d'une nouvelle technologie tentée par de grandes entreprises technologiques mondiales pour améliorer les performances de l'intelligence artificielle (IA). Cela signifie que les frontières entre les entreprises de semi-conducteurs sont en train d'être abattues au milieu de la convergence de la mémoire et des semi-conducteurs de système.
Selon des rapports complets du 26, Meta et NVIDIA examinent des plans pour monter des cœurs de GPU sur la HBM. Plus précisément, cela implique d'intégrer des cœurs de GPU dans la puce de base située au bas de la pile HBM, et ils explorent actuellement une coopération avec SK Hynix et Samsung Electronics.
Plusieurs acteurs de l'industrie familiers avec la question ont déclaré : "Des architectures 'HBM personnalisées' de nouvelle génération sont en discussion, et parmi elles, une structure qui intègre directement des cœurs de GPU dans la puce de base HBM est en cours d'élaboration."
La HBM est une mémoire haute performance créée en empilant plusieurs puces DRAM. Elle a été conçue pour des applications d'IA qui nécessitent de traiter d'énormes quantités de données.
Actuellement, la puce de base est responsable de la communication entre la mémoire et le monde extérieur au bas de la structure HBM. Un pas en avant à partir de là est l'inclusion d'un 'contrôleur' comme mis en œuvre dans la HBM4. L'industrie tente d'améliorer les performances et l'efficacité en ajoutant un semi-conducteur capable de contrôler la mémoire. La HBM4 est un produit dont la production de masse à grande échelle est prévue pour l'année prochaine.
L'intégration de cœurs de GPU est interprétée comme une technologie plusieurs étapes en avance par rapport au contrôleur HBM4. Dans les GPU et les CPU, un cœur est l'unité de base capable de calcul indépendant. Par exemple, un GPU à 4 cœurs signifie qu'il y a quatre cœurs capables de calcul ; plus il y a de cœurs, plus les performances de calcul s'améliorent.
Intégrer des cœurs dans la HBM est une tentative de distribuer les fonctions de calcul qui étaient concentrées dans le GPU vers la mémoire, réduisant ainsi le mouvement des données et allégeant la charge sur le corps principal du GPU.
Un responsable de l'industrie a expliqué : "Dans le calcul IA, un facteur important n'est pas seulement la vitesse mais aussi l'efficacité énergétique," ajoutant : "Réduire la distance physique entre la mémoire et les unités de calcul peut réduire à la fois la latence de transfert de données et la consommation d'énergie."
Cependant, des défis techniques demeurent. En raison des caractéristiques du processus Through-Silicon Via (TSV), l'espace disponible pour contenir des cœurs de GPU dans la puce de base HBM est très limité. L'alimentation électrique et la dissipation de chaleur sont également des problèmes majeurs. Étant donné que les cœurs de calcul GPU consomment beaucoup d'énergie et génèrent une chaleur significative, le contrôle thermique pourrait devenir un goulot d'étranglement.
Ce développement pourrait être à la fois une opportunité et une crise pour l'industrie des semi-conducteurs nationale. Si les entreprises possèdent les capacités de fonderie ou d'emballage pour mettre en œuvre des CPU ou des GPU, cela devient une opportunité de développer davantage la HBM et de continuer à dominer le marché des semi-conducteurs IA. Cependant, il y a une préoccupation que si les capacités de réponse sont insuffisantes, elles pourraient devenir subordonnées à l'industrie des semi-conducteurs de système.
Kim Joung-ho, professeur à l'École de génie électrique de KAIST, a déclaré : "La vitesse de la transition technologique où la frontière entre la mémoire et les semi-conducteurs de système s'effondre pour l'avancement de l'IA va s'accélérer," et a ajouté : "Les entreprises nationales doivent élargir leur écosystème au-delà de la mémoire vers le secteur logique pour anticiper le marché de la prochaine génération de HBM."

Meilleurs
Classement
Favoris

