Chip Stacking: Cara China “Mengakali” Dominasi AI GPU Nvidia
Chip Stacking: Cara China “Mengakali” Dominasi AI GPU Nvidia. Amerika Serikat menetapkan pembatasan ekspor untuk teknologi chip canggih ke China, termasuk produksi logic chip di 14nm ke bawah dan DRAM di 18nm ke bawah, plus chip AI top seperti seri H100 dan turunannya.
Artinya, perusahaan China sulit banget akses node paling mutakhir seperti 5nm, 4nm, apalagi 3nm. Sementara itu, Nvidia masih leluasa pakai teknologi manufaktur tercanggih buat GPU AI mereka.
Daripada terus-terusan kejar proses produksi yang sulit diakses, sebagian pakar di China bilang:
“Kalau nggak bisa mengecilkan chip, ya bikin sistemnya lebih pintar.”
Di sinilah konsep chip stacking masuk.
Apa Itu Chip Stacking? Bayangin Kayak Rumah Susun Elektron
Secara simpel, chip stacking itu menumpuk beberapa chip secara vertikal, lalu menghubungkannya dengan teknologi sambungan 3D berkecepatan tinggi.
Menurut penjelasan Wei Shaojun, wakil ketua China Semiconductor Industry Association, idenya begini: AI News+1
- Pakai logic chip 14nm (untuk komputasi)
- Tumpuk dengan DRAM 18nm (untuk memori)
- Satukan dengan teknik 3D hybrid bonding sehingga jarak antara komputasi dan memori jadi super dekat
Pendekatan ini disebut juga software-defined near-memory computing:
bukan lagi prosesor di satu tempat dan memori jauh di tempat lain, tapi keduanya “nempel” sehingga data nggak perlu bolak-balik terlalu jauh.
Keuntungannya:
- Bandwidth memori bisa naik jauh
- Energi lebih efisien karena data nggak jalan-jalan
- Masih bisa menggunakan proses manufaktur yang sudah dikuasai pabrik dalam negeri
Beneran Bisa Saingi Nvidia?
Di atas kertas, Wei mengklaim konfigurasi ini bisa mendekati performa GPU AI Nvidia, dengan angka sekitar 120 TFLOPS dan efisiensi 2 TFLOPS per watt.
Masalahnya, Nvidia A100 yang jadi pembanding punya performa sampai sekitar 312 TFLOPS – lebih dari dua kali lipat angka yang disebut itu.
Jadi, walaupun ide arsitekturnya menarik, gap performa mentahnya masih kelihatan jelas. Stack chip lama bareng-bareng tetap nggak bisa sepenuhnya menutupi keunggulan node produksi yang lebih modern (kayak 4nm) yang:
- muat lebih banyak transistor,
- lebih irit daya,
- dan lebih mudah diatur soal panas.
Kalau Masih Kalah, Kenapa Tetap Dikejar?
Karena ini bukan cuma soal “siapa paling kencang di benchmark”. Ada beberapa alasan strategis:

- Kemandirian rantai pasok
Dengan mengandalkan node yang bisa diproduksi di dalam negeri, China bisa mengurangi ketergantungan ke pabrik luar seperti TSMC. - Keluar dari “triple dependence” Nvidia
Nvidia bukan cuma jual chip, tapi juga ekosistem lengkap:
hardware + CUDA + tools + model AI yang sudah dioptimasi.
Pakar di China menyebut ini sebagai “triple dependence” yang bikin developer susah lepas dari Nvidia. - Main di medan yang berbeda
Daripada memaksa bikin GPU mirip Nvidia tapi versi “downgrade”, chip stacking membuka peluang arsitektur baru yang bisa dioptimasi untuk jenis workload tertentu – misalnya tugas AI yang butuh bandwidth memori besar, bukan cuma kekuatan komputasi mentah.
Tantangan Besar: Panas, Produksi, dan Software
Tentu saja, konsep ini nggak bebas masalah. Beberapa PR besarnya:
- Panas berlebih (thermal)
Chip 14nm itu relatif lebih boros dan panas dibanding 4nm. Kalau ditumpuk, urusan pembuangan panas makin ruwet, dan desain pendingin harus jauh lebih canggih. AI News - Yield & cacat produksi
Di 3D stacking, satu lapis chip yang cacat bisa bikin seluruh “tumpukan” gagal. Itu artinya biaya produksi bisa melonjak kalau prosesnya belum matang. - Ekosistem software
Arsitektur baru butuh kompiler, framework, dan tools baru juga. Membangun ekosistem level CUDA bukan pekerjaan 1–2 tahun; ini bisa makan waktu lama dan perlu dukungan luas dari industri dan komunitas.
Karena itu, banyak analis menilai chip stacking China ini lebih realistis untuk beban kerja tertentu (misalnya inference atau analitik data tertentu), bukan sebagai pengganti total GPU kelas atas Nvidia dalam waktu dekat.
Apa Artinya Buat “Perang Chip” AI?
Intinya, chip stacking menunjukkan satu hal:
China nggak lagi hanya berusaha menyalin, tapi mulai mencari jalur teknis alternatif untuk tetap bersaing di AI hardware.
Buat dunia:
- Persaingan makin ketat, bukan cuma antara Nvidia vs AMD/Intel, tapi juga vs arsitektur baru dari China.
- Kita bisa lihat lebih banyak inovasi di level paket 3D, memori dekat-komputasi, dan desain sistem – bukan cuma lomba mengecilkan nanometer.
Apakah chip stacking ini bakal benar-benar menggoyang tahta Nvidia?
Belum tentu. Tapi satu hal jelas: strategi ini bikin peta persaingan chip AI makin menarik untuk diikuti — dan bisa jadi, di masa depan, definisi “chip AI terbaik” bukan lagi soal siapa nanometernya paling kecil, tapi siapa yang paling kreatif menggabungkan semua komponen jadi satu sistem yang cerdas.





