Batas Antara GPU dan HBM Runtuh... HBM Generasi Berikutnya untuk Menyematkan Inti GPU Metode pemasangan Unit Pemrosesan Grafis (GPU) ke High Bandwidth Memory (HBM) generasi berikutnya sedang diupayakan . Ini adalah teknologi baru yang dicoba oleh perusahaan teknologi besar global untuk meningkatkan kinerja Kecerdasan Buatan (AI). Ini menandakan bahwa batas-batas antara perusahaan semikonduktor sedang dirobohkan di tengah konvergensi memori dan semikonduktor sistem. Menurut laporan komprehensif pada tanggal 26, Meta dan NVIDIA sedang meninjau rencana untuk memasang inti GPU di HBM. Secara khusus, ini melibatkan penyematan inti GPU ke dalam die dasar yang terletak di bagian bawah tumpukan HBM, dan mereka saat ini sedang menjajaki kerja sama dengan SK Hynix dan Samsung Electronics. Beberapa orang dalam industri yang akrab dengan masalah ini menyatakan, "Arsitektur 'HBM kustom' generasi berikutnya sedang dibahas, dan di antara mereka, struktur yang secara langsung mengintegrasikan inti GPU ke dalam cetakan dasar HBM sedang dikejar." HBM adalah memori berkinerja tinggi yang dibuat dengan menumpuk beberapa chip DRAM. Ini dirancang untuk aplikasi AI yang perlu memproses data dalam jumlah besar. Saat ini, dadu dasar bertanggung jawab untuk komunikasi antara memori dan dunia luar di bagian paling bawah struktur HBM. Langkah maju dari sini adalah dimasukkannya 'pengontrol' seperti yang diterapkan dalam HBM4. Industri ini berusaha meningkatkan kinerja dan efisiensi dengan menambahkan semikonduktor yang mampu mengontrol memori. HBM4 adalah produk yang dijadwalkan untuk produksi massal skala penuh mulai tahun depan. Menyematkan inti GPU diartikan sebagai teknologi beberapa langkah lebih maju dari pengontrol HBM4. Dalam GPU dan CPU, inti adalah unit dasar yang mampu komputasi independen. Misalnya, GPU 4-core berarti ada empat inti yang mampu menghitung; semakin banyak inti yang ada, semakin banyak kinerja komputasi yang meningkat. Menempatkan inti ke dalam HBM adalah upaya untuk mendistribusikan fungsi komputasi yang terkonsentrasi di GPU ke memori, sehingga mengurangi pergerakan data dan menurunkan beban pada bodi GPU utama. Seorang pejabat industri menjelaskan, "Dalam komputasi AI, faktor penting bukan hanya kecepatan tetapi juga efisiensi energi," menambahkan, "Mengurangi jarak fisik antara memori dan unit komputasi dapat mengurangi latensi transfer data dan konsumsi daya." Namun, tantangan teknis tetap ada. Karena karakteristik proses Through-Silicon Via (TSV), ruang yang tersedia untuk menampung inti GPU di die dasar HBM sangat terbatas. Catu daya dan pembuangan panas juga merupakan masalah utama. Karena inti komputasi GPU mengkonsumsi daya tinggi dan menghasilkan panas yang signifikan, kontrol termal bisa menjadi hambatan. Perkembangan ini bisa menjadi peluang dan krisis bagi industri semikonduktor dalam negeri. Jika perusahaan memiliki kemampuan pengecoran atau pengemasan untuk mengimplementasikan CPU atau GPU, itu menjadi peluang untuk lebih mengembangkan HBM dan terus memimpin pasar semikonduktor AI. Namun, ada kekhawatiran bahwa jika kemampuan respons kurang, mereka bisa menjadi bawahan industri semikonduktor sistem. Kim Joung-ho, seorang profesor di School of Electrical Engineering di KAIST, mengatakan, "Kecepatan transisi teknologi di mana batas antara memori dan semikonduktor sistem runtuh untuk kemajuan AI akan dipercepat," dan menambahkan, "Perusahaan domestik harus memperluas ekosistem mereka di luar memori ke sektor logika untuk mendahului pasar HBM generasi berikutnya."