Granice między GPU a HBM znikają… Nowa generacja HBM z rdzeniami GPU Prowadzone są prace nad metodą montażu jednostek przetwarzania graficznego (GPU) na nowej generacji pamięci o wysokiej przepustowości (HBM). To nowa technologia, którą próbują wdrożyć globalne firmy technologiczne, aby poprawić wydajność sztucznej inteligencji (AI). Oznacza to, że granice między firmami półprzewodnikowymi są zrywane w obliczu konwergencji pamięci i półprzewodników systemowych. Według szczegółowych raportów z 26. dnia, Meta i NVIDIA rozważają plany montażu rdzeni GPU na HBM. Konkretnie, chodzi o osadzenie rdzeni GPU w podstawowym die, znajdującym się na dnie stosu HBM, a obecnie badają współpracę z SK Hynix i Samsung Electronics. Wielu insiderów branżowych zaznaczyło, że "dyskusje dotyczące architektur 'niestandardowego HBM' nowej generacji są prowadzone, a wśród nich poszukiwany jest model, który bezpośrednio integruje rdzenie GPU w podstawowym die HBM." HBM to pamięć o wysokiej wydajności, stworzona przez układanie wielu chipów DRAM. Została zaprojektowana do zastosowań AI, które wymagają przetwarzania ogromnych ilości danych. Obecnie podstawowy die odpowiada za komunikację między pamięcią a światem zewnętrznym na samym dnie struktury HBM. Krokiem naprzód jest włączenie 'kontrolera', jak to ma miejsce w HBM4. Branża stara się zwiększyć wydajność i efektywność, dodając półprzewodnik zdolny do kontrolowania pamięci. HBM4 to produkt, którego pełnoskalowa produkcja masowa ma rozpocząć się w przyszłym roku. Osadzenie rdzeni GPU interpretuje się jako technologię kilka kroków przed kontrolerem HBM4. W GPU i CPU rdzeń to podstawowa jednostka zdolna do niezależnego obliczania. Na przykład, 4-rdzeniowy GPU oznacza, że istnieją cztery rdzenie zdolne do obliczeń; im więcej rdzeni, tym lepsza wydajność obliczeniowa. Umieszczanie rdzeni w HBM to próba rozdzielenia funkcji obliczeniowych, które były skoncentrowane w GPU, na pamięć, co pozwala na zmniejszenie ruchu danych i obciążenia głównego rdzenia GPU. Przedstawiciel branży wyjaśnił: "W obliczeniach AI ważnym czynnikiem nie jest tylko prędkość, ale także efektywność energetyczna," dodając, "Zmniejszenie fizycznej odległości między pamięcią a jednostkami obliczeniowymi może zmniejszyć zarówno opóźnienia transferu danych, jak i zużycie energii." Jednakże pozostają wyzwania techniczne. Z powodu charakterystyki procesu Through-Silicon Via (TSV) przestrzeń dostępna do umieszczenia rdzeni GPU w podstawowym die HBM jest bardzo ograniczona. Zasilanie i odprowadzanie ciepła to również poważne problemy. Ponieważ rdzenie obliczeniowe GPU zużywają dużo energii i generują znaczną ilość ciepła, kontrola termiczna może stać się wąskim gardłem. Ten rozwój może być zarówno szansą, jak i kryzysem dla krajowego przemysłu półprzewodnikowego. Jeśli firmy posiadają zdolności do produkcji lub pakowania, aby wdrożyć CPU lub GPU, staje się to szansą na dalszy rozwój HBM i kontynuowanie przewodzenia na rynku półprzewodników AI. Jednak istnieje obawa, że jeśli zdolności reakcyjne będą niewystarczające, mogą stać się podrzędne wobec przemysłu półprzewodników systemowych. Kim Joung-ho, profesor w Szkole Inżynierii Elektrycznej na KAIST, powiedział: "Szybkość przejścia technologicznego, w którym granica między pamięcią a półprzewodnikami systemowymi się załamuje w celu postępu AI, przyspieszy," dodając, "Krajowe firmy muszą rozszerzyć swój ekosystem poza pamięć w sektor logiki, aby wyprzedzić rynek HBM nowej generacji."