I confini tra GPU e HBM si stanno sgretolando... La prossima generazione di HBM integrerà i core GPU Un metodo per montare le unità di elaborazione grafica (GPU) sulla memoria ad alta larghezza di banda di nuova generazione (HBM) è in fase di sviluppo. Questa è una nuova tecnologia tentata dalle grandi aziende tecnologiche globali per migliorare le prestazioni dell'Intelligenza Artificiale (AI). Significa che i confini tra le aziende di semiconduttori stanno venendo abbattuti in mezzo alla convergenza della memoria e dei semiconduttori di sistema. Secondo un reportage completo del 26, Meta e NVIDIA stanno esaminando piani per montare i core GPU sull'HBM. In particolare, questo comporta l'integrazione dei core GPU nel die di base situato nella parte inferiore dello stack HBM, e attualmente stanno esplorando la cooperazione con SK Hynix e Samsung Electronics. Molti esperti del settore a conoscenza della questione hanno dichiarato: "Si stanno discutendo architetture 'custom HBM' di nuova generazione, e tra queste, si sta perseguendo una struttura che integra direttamente i core GPU nel die di base HBM." L'HBM è una memoria ad alte prestazioni creata impilando più chip DRAM. È stata progettata per applicazioni di AI che necessitano di elaborare enormi quantità di dati. Attualmente, il die di base è responsabile della comunicazione tra la memoria e il mondo esterno nella parte inferiore della struttura HBM. Un passo avanti da qui è l'inclusione di un 'controller' come implementato nell'HBM4. L'industria sta cercando di aumentare le prestazioni e l'efficienza aggiungendo un semiconduttore in grado di controllare la memoria. L'HBM4 è un prodotto programmato per la produzione di massa su larga scala a partire dall'anno prossimo. L'integrazione dei core GPU è interpretata come una tecnologia diversi passi avanti rispetto al controller HBM4. Nei GPU e nei CPU, un core è l'unità di base in grado di calcolo indipendente. Ad esempio, un GPU a 4 core significa che ci sono quattro core in grado di calcolare; più core ci sono, maggiore è il miglioramento delle prestazioni di calcolo. Inserire i core nell'HBM è un tentativo di distribuire le funzioni computazionali che erano concentrate nella GPU alla memoria, riducendo così il movimento dei dati e abbassando il carico sul corpo principale della GPU. Un funzionario del settore ha spiegato: "Nell'elaborazione AI, un fattore importante non è solo la velocità ma anche l'efficienza energetica," aggiungendo: "Ridurre la distanza fisica tra la memoria e le unità computazionali può ridurre sia la latenza del trasferimento dei dati che il consumo energetico." Tuttavia, rimangono sfide tecniche. A causa delle caratteristiche del processo Through-Silicon Via (TSV), lo spazio disponibile per contenere i core GPU nel die di base HBM è molto limitato. L'alimentazione e la dissipazione del calore sono anche problemi principali. Poiché i core computazionali GPU consumano alta potenza e generano calore significativo, il controllo termico potrebbe diventare un collo di bottiglia. Questo sviluppo potrebbe essere sia un'opportunità che una crisi per l'industria dei semiconduttori domestica. Se le aziende possiedono le capacità di fonderia o imballaggio per implementare CPU o GPU, diventa un'opportunità per sviluppare ulteriormente l'HBM e continuare a guidare il mercato dei semiconduttori AI. Tuttavia, c'è preoccupazione che, se le capacità di risposta sono carenti, potrebbero diventare subordinate all'industria dei semiconduttori di sistema. Kim Joung-ho, professore presso la Scuola di Ingegneria Elettrica del KAIST, ha dichiarato: "La velocità della transizione tecnologica in cui il confine tra memoria e semiconduttori di sistema si sgretola per il progresso dell'AI accelererà," e ha aggiunto: "Le aziende domestiche devono espandere il loro ecosistema oltre la memoria nel settore della logica per anticipare il mercato HBM di nuova generazione."