Colapso de los límites entre GPU y HBM... HBM de nueva generación para integrar núcleos de GPU Se está explorando un método para montar Unidades de Procesamiento Gráfico (GPUs) en la memoria de alta anchura de banda (HBM) de próxima generación. Esta es una nueva tecnología intentada por grandes empresas tecnológicas globales para mejorar el rendimiento de la Inteligencia Artificial (IA). Significa que las fronteras entre las empresas de semiconductores se están rompiendo en medio de la convergencia de la memoria y los semiconductores de sistema. Según un informe exhaustivo del día 26, Meta y NVIDIA están revisando los planes para montar núcleos de GPU en HBM. Específicamente, esto implica incrustar núcleos de GPU en el chip base situado en la parte inferior de la pila HBM, y actualmente están explorando la cooperación con SK Hynix y Samsung Electronics. Varios expertos en la industria familiarizados con el asunto afirmaron: "Se están discutiendo arquitecturas 'HBM personalizadas' de próxima generación, y entre ellas, se está persiguiendo una estructura que integre directamente los núcleos de GPU en el chip base HBM." HBM es una memoria de alto rendimiento creada apilando múltiples chips DRAM. Fue diseñado para aplicaciones de IA que necesitan procesar grandes cantidades de datos. Actualmente, el dado base es responsable de la comunicación entre la memoria y el mundo exterior en la parte más baja de la estructura HBM. Un paso adelante desde aquí es la inclusión de un 'controlador' tal y como se implementa en HBM4. La industria está intentando mejorar el rendimiento y la eficiencia añadiendo un semiconductor capaz de controlar la memoria. HBM4 es un producto programado para producción masiva a gran escala a partir del próximo año. Incrustar núcleos de GPU se interpreta como una tecnología varios pasos por delante del controlador HBM4. En GPUs y CPUs, un núcleo es la unidad básica capaz de realizar cálculos independientes. Por ejemplo, una GPU de 4 núcleos significa que hay cuatro núcleos capaces de computación; Cuantos más núcleos haya, más mejora el rendimiento informático. Colocar núcleos en HBM es un intento de distribuir las funciones computacionales que estaban concentradas en la GPU a la memoria, reduciendo así el movimiento de datos y disminuyendo la carga sobre el cuerpo principal de la GPU. Un responsable del sector explicó: "En la computación de IA, un factor importante no es solo la velocidad, sino también la eficiencia energética", añadiendo: "Reducir la distancia física entre la memoria y las unidades computacionales puede disminuir tanto la latencia de transferencia de datos como el consumo de energía." Sin embargo, persisten desafíos técnicos. Debido a las características del proceso Through-Silicon Via (TSV), el espacio disponible para contener núcleos de GPU en el chip base HBM es muy limitado. La fuente de alimentación y la disipación de calor también son problemas importantes. Dado que los núcleos computacionales de la GPU consumen mucha energía y generan calor significativo, el control térmico podría convertirse en un cuello de botella. Este desarrollo podría ser tanto una oportunidad como una crisis para la industria nacional de semiconductores. Si las empresas poseen las capacidades de fundición o empaquetado para implementar CPUs o GPUs, se convierte en una oportunidad para desarrollar aún más HBM y seguir liderando el mercado de semiconductores de IA. Sin embargo, existe la preocupación de que, si las capacidades de respuesta son insuficientes, puedan quedar subordinadas a la industria de semiconductores de sistemas. Kim Joung-ho, profesor en la Escuela de Ingeniería Eléctrica de KAIST, dijo: "La velocidad de la transición tecnológica donde la frontera entre la memoria y los semiconductores de sistemas colapsa para el avance de la IA se acelerará", y añadió: "Las empresas nacionales deben expandir su ecosistema más allá de la memoria hacia el sector lógico para adelantarse al mercado de HBM de próxima generación."