Dari Elpida yang runtuh hingga Micron yang bangkit Ulang logika dasar chip penyimpanan

2012 tahun, produsen DRAM terkemuka di dunia, Elpida, secara resmi mengumumkan kebangkrutan.

Sebagai perusahaan yang pernah menjadi panutan industri semikonduktor Jepang, Elpida mengintegrasikan teknologi inti dari tiga raksasa NEC, Hitachi, dan Mitsubishi, bahkan dengan campur tangan pemerintah Jepang yang menyuntikkan dana sebagai jaminan, tetap sulit membendung tren penurunan. Setelah perusahaan meminjamkan utang sebesar 430 miliar yen dan mengajukan perlindungan kebangkrutan, akhirnya diakuisisi oleh Micron Technology dari Amerika Serikat seharga 200 miliar yen, dan setelah proses integrasi dan penyesuaian, perusahaan ini benar-benar keluar dari panggung industri.

Melihat kembali perjalanan perkembangan industri, Intel, Texas Instruments, dan Motorola semuanya pernah berupaya di jalur DRAM, namun kemudian secara berturut-turut keluar dari pasar. Seluruh industri memori semikonduktor Jepang, dari puncak kejayaan hingga runtuhnya, hanya membutuhkan waktu kurang dari dua dekade. Setelah itu, perusahaan Korea mengambil alih dan bangkit, dengan Samsung dan SK Hynix yang mengandalkan subsidi pemerintah, serta dengan agresif melakukan perang harga, menyapu pasar global dan mengurangi ruang hidup semua pesaing.

Sementara itu, Micron menjadi satu-satunya yang bertahan hingga saat ini, dan merupakan satu-satunya perusahaan di Amerika Serikat yang mampu memproduksi chip penyimpanan canggih dalam skala besar. Perusahaan yang berbasis di Boise, Idaho ini selama bertahun-tahun beroperasi di bawah bayang-bayang Nvidia dan TSMC, tidak terlibat dalam desain GPU maupun pembuatan chip logika. Namun, seiring meningkatnya permintaan daya komputasi AI yang meledak, sebuah hambatan fisik yang telah tersembunyi selama puluhan tahun semakin menonjol: waktu yang dibutuhkan unit komputasi untuk menunggu data yang ditransfer, telah melebihi waktu yang dibutuhkan untuk proses komputasi itu sendiri. Masalah utama industri ini tidak dapat diselesaikan melalui optimisasi perangkat lunak, melainkan harus melalui terobosan teknologi hardware, dan inilah jalur utama yang telah digeluti Micron selama empat puluh tahun.

Kendala inti dalam komputasi AI: Dinding memori sebagai masalah umum industri

Dalam arsitektur Von Neumann, unit komputasi GPU dan TPU serta memori utama secara fisik berdiri sendiri. Unit komputasi dilengkapi dengan SRAM berkapasitas kecil sebagai cache on-chip, sementara bobot model besar dan data input utama disimpan di luar chip dalam DRAM, dan data harus ditransfer melalui lapisan perantara dalam bentuk sinyal listrik.

Sebagai contoh, model bahasa besar dengan 700 miliar parameter, dalam presisi FP16, hanya bobot model saja membutuhkan sekitar 140GB memori fisik. Saat ini, kapasitas VRAM kartu AI kelas atas berkisar antara 80GB hingga 192GB, sehingga model berukuran besar hanya bisa dijalankan secara kolaboratif di beberapa kartu. Sepuluh tahun terakhir, kekuatan komputasi chip mengalami lonjakan eksponensial, tetapi bandwidth memori tetap terbatas oleh jumlah pin fisik, frekuensi sinyal, dan batasan pendinginan, sehingga kecepatan pertumbuhan jauh tertinggal dari peningkatan kekuatan komputasi. Ketika performa komputasi melebihi kapasitas pasokan memori, unit komputasi akan mengalami idle dan menunggu, sehingga efisiensi hardware menurun secara signifikan.

AI terbagi menjadi dua skenario utama: pelatihan dan inferensi, dengan logika dasar yang berbeda. Pada tahap pelatihan, fokusnya adalah pada pemrosesan paralel dalam jumlah besar, di mana data yang sama berulang kali dipanggil dari cache inti komputasi, sehingga intensitas aritmatiknya tinggi. Bottleneck utama terletak pada kecepatan komputasi, bukan memori, menjadikannya skenario yang sangat padat komputasi, di mana keunggulan Nvidia dalam kekuatan komputasi dapat dimaksimalkan.

Pada tahap inferensi, logikanya berbeda sama sekali. Model bahasa besar menggunakan mekanisme autoregressive untuk menghasilkan teks token demi token. Untuk menghindari perhitungan ulang skor perhatian historis, sistem harus membangun mekanisme cache KV di VRAM. Sebagai contoh, dengan panjang konteks sekitar 4096 token, permintaan satu pengguna saja akan memakan sekitar 1,34GB VRAM; dua kartu A100, setelah dikurangi bobot model, tersisa hanya sekitar 20GB untuk KV Cache, yang hanya mampu menampung sekitar 14 permintaan secara bersamaan. Pada tahap inferensi, intensitas aritmatiknya sangat rendah, performa sepenuhnya dibatasi oleh bandwidth memori, dan ini adalah tugas yang sangat bergantung pada akses memori, di mana kecepatan transfer fisik HBM secara langsung menentukan batas throughput bisnis.

Dari sudut pandang konsumsi energi, membaca satu bit data dari HBM di luar chip membutuhkan energi sekitar 10—20 pJ/bit, sementara satu operasi floating point FP16 hanya membutuhkan 0,1 pJ. Jadi, energi yang digunakan untuk memindahkan data 100 hingga 200 kali lipat lebih besar daripada energi untuk melakukan satu operasi komputasi. Dalam skenario inferensi skala besar, jika tidak ada optimisasi dalam pola akses memori, sebagian besar daya listrik pusat data akan terpakai untuk transfer data di bus, bukan untuk operasi logika, dan ini menjadi pendorong utama Micron terus mengembangkan teknologi HBM.

Profil fundamental Micron dan posisi dalam rantai pasok AI

Micron adalah produsen komponen IDM yang mengintegrasikan seluruh rantai produksi, mulai dari desain chip, pembuatan wafer, hingga pengemasan dan pengujian, dengan fokus utama pada chip penyimpanan, dan tidak terlibat dalam CPU maupun GPU. Pabrik wafer mereka berfokus pada jalur produk memori, dan tidak memproduksi chip logika.

Dari segi struktur pendapatan, lebih dari 70% berasal dari bisnis DRAM, 20–30% dari NAND flash, dan sisanya dari NOR flash yang berukuran relatif kecil. DRAM adalah media utama untuk memori umum, NAND adalah media utama untuk SSD, sementara NOR flash banyak digunakan dalam otomotif dan perangkat industri, bertugas menjalankan kode boot secara cepat, meskipun pasar niche, namun memiliki keunggulan yang tak tergantikan.

Dalam hal penempatan bisnis, Micron membagi ke dalam empat bidang utama: jaringan komputasi dan server data center, perangkat mobile untuk smartphone, penyimpanan perusahaan melalui SSD, serta bidang embedded untuk otomotif dan industri.

Dalam rantai pasok AI, Nvidia bertanggung jawab atas desain GPU, dan TSMC yang melakukan fabrikasi wafer. Meski Micron tidak terlibat langsung dalam kedua tahap ini, mereka adalah pemasok komponen utama yang tak tergantikan untuk akselerator AI. Chip logika GPU saja tidak cukup untuk menjalankan model besar; bottleneck performa inferensi terletak pada bandwidth memori, sehingga GPU Nvidia harus terintegrasi secara erat dengan memori HBM berbandwidth tinggi. Micron bersama SK Hynix dan Samsung adalah pemasok utama HBM, produk mereka dikemas melalui teknologi CoWoS canggih dari TSMC, dan digabungkan dengan GPU menjadi modul komputasi AI lengkap. GPU adalah otak kekuatan AI, sementara HBM adalah jalur transfer data berkecepatan tinggi, keduanya saling melengkapi.

Dalam kompetisi industri, Nvidia mengandalkan arsitektur dan ekosistem untuk membangun keunggulan kompetitif, sementara Micron terus melakukan inovasi melalui proses fabrikasi dan teknologi stacking untuk membangun hambatan industri. Setiap peningkatan bandwidth HBM dari generasi ke generasi didukung oleh teknologi TSV yang lebih presisi dan peningkatan jumlah lapisan stack, sehingga tingkat masuk ke industri ini sangat tinggi.

DRAM: Infrastruktur dasar di balik kekuatan AI

Dalam arsitektur komputer tradisional, DRAM berfungsi sebagai memori utama, sangat cocok untuk mengatasi masalah kecepatan antara penyimpanan besar dan lambat dengan CPU berkecepatan tinggi dan cache kecil. Saat program berjalan, data dimuat dari hard disk ke DRAM, dan CPU melakukan operasi baca tulis data dengan latensi nanodetik dan bandwidth tinggi, kernel sistem dan proses latar belakang selalu aktif di dalamnya. DRAM memiliki karakteristik kehilangan data saat mati listrik, karena adanya kapasitor internal yang secara alami bocor, sehingga perlu dilakukan refresh secara terus-menerus untuk menjaga data tetap tersimpan. Unit dasar terdiri dari satu transistor dan satu kapasitor.

Memasuki era AI, bentuk dan kebutuhan penggunaan DRAM berubah secara radikal. Unit komputasi beralih dari CPU ke GPU, dan DRAM tidak lagi terbatas pada bentuk memori DDR di motherboard, melainkan dalam bentuk HBM berbandwidth tinggi, yang secara vertikal ditumpuk menggunakan teknologi TSV, dan dikemas bersama GPU dalam lapisan silikon penghubung.

Saat ini, nilai inti dari DRAM berfokus pada dua aspek utama: pertama, memuat bobot model besar, misalnya model 700 miliar parameter dalam format FP16 membutuhkan sekitar 140GB ruang penyimpanan, dan harus dimuat seluruhnya ke HBM sebelum inferensi; kedua, cache KV yang dinamis, di mana selama proses generasi teks, model harus menyimpan konteks historis, dan semakin panjang konteksnya, semakin tinggi konsumsi memori VRAM. Kapasitas ini membatasi jumlah permintaan bersamaan yang dapat ditangani oleh satu server tinggi. Dalam skenario pelatihan, konsumsi VRAM jauh lebih besar, karena selain bobot model, juga harus menyimpan hasil perhitungan intermediate dan data optimizer, sehingga kebutuhan VRAM bisa 3–4 kali lipat dari inferensi.

Terbatas oleh dinding memori, kecepatan pertumbuhan kekuatan GPU jauh melebihi kecepatan peningkatan bandwidth memori, sehingga selama inferensi, GPU sering mengalami idle dan menunggu, dan peningkatan bandwidth HBM secara langsung menentukan batas throughput server AI, dan ini adalah logika dasar mengapa Micron terus mengembangkan HBM.

Pola kompetisi tiga besar dalam pasar DRAM: Samsung, SK Hynix, Micron


Pasar DRAM global didominasi oleh tiga raksasa: Samsung, SK Hynix, dan Micron, yang bersama-sama menguasai sekitar 95% pangsa pasar, dengan keunggulan utama masing-masing berbeda.

Dalam hal iterasi proses, Micron memimpin industri, dari node 1-alpha, 1-beta hingga 1-gamma, selalu menjadi yang pertama dalam memproduksi DRAM berkapasitas tinggi generasi baru, menghasilkan wafer yang lebih banyak dan biaya per bit yang lebih rendah, sehingga margin keuntungan lebih tinggi. Samsung mengalami hambatan yield di proses di bawah 14nm, sehingga memperlambat iterasi; SK Hynix berada di tingkat yang sama dengan Micron dalam hal kemajuan proses.

Dalam hal HBM, pola pasar sangat berbeda. SK Hynix tetap menjadi pemimpin industri, menguasai lebih dari 50% pangsa pasar, dan menjadi pemasok eksklusif untuk GPU high-end Nvidia, berkat teknologi MR-MUF yang unggul dalam stacking multi-layer dan pengelolaan panas serta yield. Micron sebagai pemain baru langsung melompat ke HBM3E, memanfaatkan keunggulan efisiensi energi untuk masuk ke rantai pasok Nvidia, menggunakan teknologi TC-NCF yang lebih kompleks, dan kapasitas produksi serta pangsa pasar masih di bawah SK Hynix. Samsung, di tahap HBM3 dan HBM3E, gagal lolos pengujian Nvidia karena masalah panas dan konsumsi daya, kehilangan peluang pasar memori AI, dan saat ini mereka berfokus pada HBM4 untuk mengejar ketertinggalan.

Dari segi efisiensi energi, Micron menonjol karena konsumsi daya HBM mereka 20–30% lebih rendah dibanding kompetitor dengan bandwidth yang sama. Meskipun perbedaannya kecil, dalam skala data center yang menggunakan puluhan ribu kartu, penghematan ini dapat secara signifikan mengurangi biaya listrik dan pendinginan. Selain itu, proses 1-gamma LPDDR5X mereka mampu mencapai kecepatan 9,6Gbps dengan konsumsi daya 30% lebih rendah, cocok untuk kebutuhan AI lokal di perangkat mobile.

Dalam hal kapasitas produksi, Samsung tetap menjadi yang terbesar, mampu menguasai pasar melalui perang harga; Micron memiliki kapasitas terendah, menghindari perang harga yang homogen, dan fokus pada nilai tambah teknologi, mengandalkan proses dan efisiensi energi untuk mempertahankan posisi pasar.

Selain DRAM dan HBM, NAND dan NOR flash menjadi jalur pertumbuhan kedua Micron. Pasar NAND menduduki posisi keempat hingga kelima secara global, dengan pangsa sekitar 10–15%; NOR flash, meskipun pasar niche, fokus pada bidang otomotif dan industri kelas atas, memimpin standar antarmuka Octal xSPI, dan produk mereka mendapatkan sertifikasi keamanan tertinggi ASIL-D, serta didukung oleh pabrik wafer sendiri untuk pasokan jangka panjang lebih dari sepuluh tahun, menargetkan pelanggan utama di bidang otomotif dan industri, menghindari perang harga, dan mendapatkan premi atas keandalan dan performa.

Valuasi Micron dan pembanding industri

Saat ini, harga saham Micron sekitar 600 dolar AS, dengan rasio PE 21,44, dan kapitalisasi pasar sekitar 650 miliar dolar AS. Bank-bank investasi di Wall Street memperkirakan target harga 12 bulan antara 400 hingga 675 dolar, dengan rata-rata mendekati 500 dolar, menunjukkan bahwa valuasi secara keseluruhan masih tergolong undervalued.

Dulu, chip penyimpanan termasuk industri siklus kuat, di mana tingkat permintaan tinggi mendorong ekspansi kapasitas, yang kemudian menyebabkan kelebihan pasokan dan penurunan harga secara tajam. Umumnya, pasar memberi valuasi 8–10 kali PE. Kini, valuasi Micron meningkat secara signifikan, terutama karena HBM mengubah struktur pendapatan: memori DDR tradisional sangat dipengaruhi fluktuasi pasar dan permintaan, sementara HBM menggunakan model produksi kontrak yang sudah disepakati dengan pelanggan utama seperti Nvidia, dengan kapasitas HBM yang sudah habis terjual pada tahun 2026. Pendapatan mereka beralih dari fluktuasi siklus menjadi pendapatan kontrak yang stabil, dan pasar menilainya sebagai penyedia infrastruktur AI, sehingga multipel valuasi meningkat.

Ditambah lagi, didukung kebijakan dan dana, sebagai satu-satunya produsen memori canggih di AS, mereka mendapatkan manfaat dari Undang-Undang Chip dan tren lokalisasi rantai pasok, serta terus didukung oleh dana institusional, yang memberi premi likuiditas.

Dari pembanding industri, SK Hynix memiliki PE hanya 12,17, meskipun menguasai lebih dari 50% pasar HBM dan menjadi pemasok utama untuk Nvidia, namun dipengaruhi oleh struktur pengelolaan konglomerat Korea Selatan, dengan dividen dan buyback yang rendah; ditambah lagi, sekitar 40% kapasitas produksi DRAM reguler mereka di China, di pabrik Wuxi, yang terkena larangan ekspor peralatan luar negeri, sehingga tidak dapat melakukan iterasi proses canggih, menghadapi risiko migrasi kapasitas dan depresiasi aset, sehingga valuasi mereka terus ditekan.

Samsung Electronics memiliki PE sebesar 34,18, bukan karena valuasi tinggi, melainkan karena laba bersih yang menurun. Samsung memiliki bisnis yang beragam, termasuk penyimpanan, foundry wafer, ponsel pintar, dan panel tampilan. Bisnis foundry mereka yang berinvestasi besar dalam proses canggih masih mengalami margin rendah dan kerugian berkelanjutan, yang menekan laba bersih grup. Harga saham mereka tetap stabil karena didukung dana domestik, sehingga PE mereka tinggi.

Para analis percaya bahwa inti dari prospek Micron adalah: peningkatan pangsa pendapatan dari HBM akan mendorong margin laba; kontrak pasokan jangka panjang memastikan pendapatan yang pasti; kapasitas produksi akan beralih ke HBM, menekan pasokan DRAM biasa, dan mendukung kenaikan harga seluruh lini produk; proses 1-gamma yang masuk tahap produksi massal akan memasuki periode pengembalian investasi, dan arus kas bebas terus membaik. Namun, perlu diingat bahwa siklus industri memori belum benar-benar hilang, hanya dilancarkan oleh pesanan besar HBM; jika investasi infrastruktur AI melambat dan Samsung berhasil mengungguli teknologi HBM4, maka pola penawaran dan permintaan industri bisa berubah lagi.

Kriteria utama penilaian HBM dan teknologi konektivitas generasi berikutnya CXL

Setiap produsen industri menonjolkan keunggulan produk HBM mereka sendiri, dan penilaian kualitas HBM terutama bergantung pada tiga parameter kunci:

Pertama, kecepatan pin, yang menentukan bandwidth transfer data. HBM mengandalkan interkoneksi micro-bump berkecepatan tinggi dengan GPU, dan kecepatan pin mewakili jumlah data yang dapat ditransfer per detik melalui satu saluran. Standar industri menetapkan lebar bus tetap 1024 pin, dan bandwidth total mengikuti rumus konversi tetap. Micron HBM3E secara nominal mencapai 9,2Gbps, dengan bandwidth sekitar 1,2TB/s per stack, lebih unggul dari kompetitor yang berkisar 8,0 hingga 8,5Gbps. Namun, peningkatan kecepatan ini disertai risiko konsumsi daya dan distorsi sinyal, di mana voltase yang sering berbalik menghasilkan panas, dan kecepatan tinggi dapat menyebabkan gangguan sinyal, mempengaruhi stabilitas transfer data.

Kedua, indikator efisiensi energi, diukur dalam pJ/bit, semakin rendah semakin baik. HBM yang dikemas bersama GPU harus mengelola konsumsi daya yang tinggi, yang akan memperburuk beban pendinginan dan memaksa GPU menurunkan frekuensi. Micron memanfaatkan proses 1-beta dengan desain tegangan rendah, sehingga efisiensinya sekitar 30% lebih baik dari kompetitor, secara signifikan mengurangi biaya listrik dan pendinginan pusat data.

Ketiga, hambatan termal dan teknologi kemasan, yang juga menjadi keunggulan utama SK Hynix. Suhu naik dipengaruhi oleh konsumsi daya dan hambatan termal. Struktur tumpuk multi-layer HBM menyulitkan konduksi panas, dan bahan pengisi antar lapisan sangat mempengaruhi hambatan termal. Teknologi utama terbagi menjadi TC-NCF dan MR-MUF. Micron dan Samsung menggunakan teknologi TC-NCF, yang cenderung meninggalkan gelembung udara dan memiliki hambatan termal lebih tinggi; SK Hynix menggunakan teknologi MR-MUF dengan bahan cair yang mengisi celah, tanpa gelembung udara, hambatan termal lebih rendah.

Hambatan termal yang tinggi akan memicu reaksi berantai: suhu lingkungan yang meningkat akan mempercepat kebocoran listrik kapasitor DRAM, memaksa pengontrol memori melakukan refresh lebih sering, mengurangi bandwidth efektif; selain itu, proses kemasan menentukan jumlah lapisan stack maksimal, semakin banyak lapisan, semakin besar tantangan mekanis dan perluasan termal, sehingga tingkat yield dan pengendalian kualitas meningkat secara eksponensial.

Membaca data teknis HBM dari produsen, fokus utama adalah pada tiga poin: tegangan pengujian kecepatan nominal, jumlah lapisan stack dan kapasitas per chip, serta pelanggan utama yang membeli produk tersebut. Pengujian lapangan oleh pelanggan adalah verifikasi akhir dari kekuatan teknologi.

CXL: Arena berikutnya untuk pooling memori dalam klaster AI

HBM mengatasi bottleneck bandwidth internal GPU tunggal, tetapi ketika klaster AI berkembang hingga ribuan GPU, distribusi sumber daya memori yang tidak efisien dan inkonsistensi cache antar perangkat menjadi masalah baru, dan teknologi CXL muncul sebagai solusi.

Dalam pusat data tradisional, memori secara fisik terikat pada satu server, sehingga tidak dapat dibagi antar perangkat. Hal ini sering menyebabkan beberapa node kelebihan cache KV, sementara node lain memori menganggur, dengan tingkat ketertinggalan mencapai 20–30%, menyebabkan pemborosan besar. Selain itu, data cache CPU dan GPU tidak sinkron, dan metode sinkronisasi perangkat lunak tradisional memiliki latensi tinggi dan performa rendah, serta memerlukan penyesuaian kode manual, dengan tingkat toleransi kesalahan yang rendah.

Akar masalahnya terletak pada batasan protokol PCIe, yang hanya cocok untuk transfer data besar tanpa mekanisme konsistensi cache. CXL merekayasa ulang lapisan fisik PCIe secara logika, mengoptimalkan semantik memori dan konsistensi cache, dan secara otomatis memelihara status cache melalui hardware, menyelesaikan sinkronisasi data dalam hitungan nanodetik tanpa intervensi sistem atau kode. Menggunakan format transmisi FLIT tetap, menyederhanakan proses parsing data, dan mengurangi latensi akses memori jarak jauh menjadi sekitar 170–250 nanodetik.

Selain itu, CXL dapat membangun pool memori bersama melalui switch, melepaskan batasan fisik satu server, dan secara dinamis mengalokasikan memori yang tidak terpakai dalam hitungan mikrodetik, menyelesaikan masalah memori menganggur secara tuntas.

Micron meluncurkan modul ekstensi memori CXL Type 3, berbasis proses DDR5 buatan sendiri, yang berpasangan dengan HBM dalam konfigurasi high-low: HBM fokus pada kecepatan tinggi dan latensi rendah untuk satu kartu, sementara CXL mendukung perluasan memori kapasitas besar antar node, mendukung pooling sumber daya hingga TB. Dalam implementasi industri, data panas tetap di HBM lokal, sementara data dingin dengan konteks panjang dipindahkan ke pool memori CXL, dan mekanisme prefetch membantu menutupi latensi transfer, mendukung model dengan konteks panjang hingga jutaan token.

Dalam pola kompetisi industri, pasar HBM semakin kompetitif, sementara pasar CXL masih dalam tahap awal pengembangan, dan pola industri belum pasti. Micron sebagai produsen memori murni tanpa beban sejarah, dan modul CXL yang menggunakan proses DDR5 standar, tidak memerlukan kemasan stack yang rumit, sehingga tingkat yield dan kapasitas produksi dapat dikendalikan, dan berpotensi merebut posisi awal di jalur ini.

Ekonomi dasar industri dan batasan teknologi frontier

Pabrik wafer DRAM canggih dengan teknologi terbaru menelan biaya hingga 150–200 miliar dolar AS, dan satu mesin litografi EUV harganya lebih dari 200 juta dolar AS. Ditambah lagi dengan sistem pasokan listrik dan pendinginan, biaya peralatan yang diakui selama 5 tahun sangat besar, dan tingkat utilisasi harus di atas 95% agar biaya produksi dapat ditekan. Saat permintaan menurun, produsen sulit mengurangi produksi, dan hanya mampu bertahan dengan menahan tekanan dan memulai perang harga, yang menjadi akar siklus kuat industri memori.

Biaya pembuatan HBM juga sangat tinggi karena batasan fisik. Lapisan DRAM yang tidak sempurna akan menyebabkan seluruh modul harus dibuang, dan tingkat yield menurun secara eksponensial seiring bertambahnya lapisan stack. Bahkan jika wafer individual memiliki yield 95% dan proses bonding antar lapisan 99%, total yield HBM3E 8 lapis hanya sekitar 61%, dan HBM4 12 lapis kurang dari 50%. Upaya SK Hynix dan Micron dalam meningkatkan proses dan yield bertujuan meningkatkan yield keseluruhan dan menurunkan biaya per unit, tetapi proses ini tidak bisa dipercepat, sehingga harga HBM dalam waktu dekat sulit untuk turun secara signifikan.

Teknologi PIM (Processing In Memory) yang sudah diajukan selama dua puluh tahun belum mencapai komersialisasi skala besar, karena konflik dalam proses fisik. Transistor DRAM harus dirancang untuk memiliki leakage rendah dan tegangan tinggi agar data tersimpan dengan aman, tetapi ini memperlambat kecepatan switching; di sisi lain, chip logika CPU dan GPU mengutamakan tegangan rendah dan frekuensi tinggi, sehingga leakage tinggi. Jika memaksa menanamkan unit komputasi di dalam DRAM, kekuatan komputasi akan jauh tertinggal dari GPU, dan panas yang dihasilkan akan mempercepat kebocoran kapasitor, serta mempengaruhi keandalan data.

Saat ini, solusi kompromi industri adalah mengintegrasikan unit AI ringan di bagian bawah Base Die HBM, menggunakan proses logika canggih dari TSMC untuk menghindari batasan proses DRAM, tetapi jarak menuju integrasi penuh memori dan komputasi masih cukup jauh.

Dalam jangka panjang, strategi kompetitif utama Micron jelas: memanfaatkan proses 1-gamma untuk menekan biaya per bit, dan mengunci harga melalui margin tinggi HBM, serta menstabilkan siklus industri melalui kontrak pasokan jangka panjang. Namun, industri masih menghadapi hambatan struktural: miniaturisasi planar DRAM mendekati batas fisik, dan yield stack 3D menurun seiring bertambahnya lapisan, serta tidak ada jalan pintas komersial untuk integrasi memori dan komputasi dalam waktu dekat. Kompetisi industri ke depan tidak lagi bergantung pada keunggulan proses node tunggal, melainkan pada kemampuan dalam yield engineering, teknologi kemasan, dan integrasi sistem—yang merupakan benteng pertahanan mendalam yang dibangun oleh raksasa memori selama puluhan tahun.

Dari analisis industri, dapat disimpulkan bahwa iterasi chip selalu terjebak dalam siklus: kekurangan kekuatan komputasi memperbesar ukuran chip, yang membatasi yield; beralih ke arsitektur interkoneksi menghadirkan latensi transfer data; stack chip mengatasi masalah interkoneksi, tetapi menimbulkan masalah pendinginan, yang kemudian kembali menurunkan yield. Pada akhirnya, kompetisi utama industri chip akan kembali ke material, dan teknologi seperti fotonik interkoneksi, bahan semikonduktor dua dimensi, dan arsitektur komputasi revolusioner mungkin menjadi kunci untuk melampaui batas fisik yang ada.

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
Tambahkan komentar
Tambahkan komentar
Tidak ada komentar
  • Sematkan