Grenzen zwischen GPU und HBM verschwinden… Nächste Generation HBM wird GPU-Kerne einbetten Eine Methode zur Montage von Grafikprozessoren (GPUs) auf der nächsten Generation von High Bandwidth Memory (HBM) wird verfolgt. Dies ist eine neue Technologie, die von globalen großen Technologieunternehmen versucht wird, um die Leistung von Künstlicher Intelligenz (AI) zu verbessern. Es bedeutet, dass die Grenzen zwischen Halbleiterunternehmen im Zuge der Konvergenz von Speicher- und Systemhalbleitern abgerissen werden. Laut umfassenden Berichten vom 26. prüfen Meta und NVIDIA Pläne zur Montage von GPU-Kernen auf HBM. Konkret geht es darum, GPU-Kerne in den Basis-DIE am Boden des HBM-Stapels einzubetten, und sie erkunden derzeit eine Zusammenarbeit mit SK Hynix und Samsung Electronics. Mehrere Brancheninsider, die mit der Materie vertraut sind, erklärten: "Es werden nächste Generation 'benutzerdefinierte HBM'-Architekturen diskutiert, und darunter wird eine Struktur verfolgt, die GPU-Kerne direkt in den HBM-Basis-DIE integriert." HBM ist ein Hochleistungs-Speicher, der durch das Stapeln mehrerer DRAM-Chips erstellt wird. Er wurde für AI-Anwendungen entwickelt, die große Datenmengen verarbeiten müssen. Derzeit ist der Basis-DIE verantwortlich für die Kommunikation zwischen dem Speicher und der Außenwelt ganz unten in der HBM-Struktur. Ein Schritt vorwärts von hier ist die Einbeziehung eines 'Controllers', wie er in HBM4 implementiert ist. Die Branche versucht, die Leistung und Effizienz zu steigern, indem ein Halbleiter hinzugefügt wird, der in der Lage ist, den Speicher zu steuern. HBM4 ist ein Produkt, das für die vollständige Massenproduktion ab dem nächsten Jahr geplant ist. Die Einbettung von GPU-Kernen wird als Technologie interpretiert, die mehrere Schritte vor dem HBM4-Controller liegt. In GPUs und CPUs ist ein Kern die Grundeinheit, die unabhängige Berechnungen durchführen kann. Zum Beispiel bedeutet ein 4-Kern-GPU, dass es vier Kerne gibt, die berechnen können; je mehr Kerne vorhanden sind, desto mehr verbessert sich die Rechenleistung. Das Einbringen von Kernen in HBM ist ein Versuch, die Rechenfunktionen, die zuvor in der GPU konzentriert waren, auf den Speicher zu verteilen, wodurch die Datenbewegung reduziert und die Belastung des Haupt-GPU-Körpers verringert wird. Ein Branchenvertreter erklärte: "In der AI-Berechnung ist ein wichtiger Faktor nicht nur die Geschwindigkeit, sondern auch die Energieeffizienz," und fügte hinzu: "Die physische Distanz zwischen Speicher und Recheneinheiten zu reduzieren, kann sowohl die Datenübertragungsverzögerung als auch den Stromverbrauch verringern." Technische Herausforderungen bleiben jedoch bestehen. Aufgrund der Eigenschaften des Through-Silicon Via (TSV)-Prozesses ist der Platz, der zur Unterbringung von GPU-Kernen im HBM-Basis-DIE zur Verfügung steht, sehr begrenzt. Die Stromversorgung und die Wärmeableitung sind ebenfalls große Probleme. Da GPU-Berechnungskerne viel Strom verbrauchen und erhebliche Wärme erzeugen, könnte die thermische Kontrolle zu einem Engpass werden. Diese Entwicklung könnte sowohl eine Chance als auch eine Krise für die heimische Halbleiterindustrie sein. Wenn Unternehmen über die Foundry- oder Verpackungsfähigkeiten verfügen, um CPUs oder GPUs zu implementieren, wird es zu einer Gelegenheit, HBM weiterzuentwickeln und den AI-Halbleitermarkt weiterhin zu führen. Es besteht jedoch die Sorge, dass sie, wenn die Reaktionsfähigkeiten fehlen, untergeordnet werden könnten der Systemhalbleiterindustrie. Kim Joung-ho, Professor an der Fakultät für Elektrotechnik der KAIST, sagte: "Die Geschwindigkeit des technologischen Übergangs, bei dem die Grenze zwischen Speicher- und Systemhalbleitern für den Fortschritt der AI zusammenbricht, wird sich beschleunigen," und fügte hinzu: "Inländische Unternehmen müssen ihr Ökosystem über den Speicher hinaus in den Logiksektor erweitern, um den Markt für die nächste Generation HBM vorwegzunehmen."