Penyimpanan yang didukung AI terus mengalami iterasi! Teknologi PIM Samsung segera diproduksi massal atau melewati CPU, GPU langsung melakukan perhitungan

robot
Pembuatan abstrak sedang berlangsung

AI sedang membentuk kembali pola penawaran dan permintaan pasar penyimpanan dengan kekuatan yang belum pernah terjadi sebelumnya, sekaligus melahirkan sejumlah teknologi baru. Setelah munculnya teknologi canggih seperti HBF dan H³, bidang penyimpanan kini menunjukkan arah baru yang sedang berkembang.

Menurut laporan media, Samsung Electronics berencana menerapkan teknologi PIM ke dalam memori LPDDR5X. Saat ini, Samsung sedang bekerja sama dengan pelanggan utama untuk mengembangkan teknologi PIM LPDDR5X, dan diperkirakan akan menyediakan sampel pada paruh kedua tahun ini. Selain itu, kedua belah pihak juga aktif membahas spesifikasi konkret penerapan teknologi PIM pada standar generasi berikutnya, yaitu LPDDR6.

PIM, singkatan dari Processing in Memory, berarti pengelolaan integrasi prosesor. Teknologi ini menempatkan unit komputasi (ALU) langsung di tingkat memori penyimpanan. Metode tradisional biasanya memerlukan transfer data ke CPU atau GPU untuk diproses, sementara PIM melakukan perhitungan langsung di dalam memori, yang diharapkan dapat mengatasi “tembok penyimpanan”.

Dalam pidato utama di “SEMICON Korea 2026” yang diadakan di Korea Selatan baru-baru ini, kepala tim desain DRAM Samsung, Son Gyo-min, menekankan pentingnya teknologi PIM, dan menyatakan: “Saat ini, karena bandwidth memori yang terbatas, AI tidak dapat sepenuhnya mengoptimalkan kinerja GPU.” Menurutnya, PIM tidak hanya dapat secara signifikan meningkatkan bandwidth, tetapi juga meningkatkan efisiensi energi secara besar-besaran.

Saat ini, Samsung Electronics telah menyelesaikan verifikasi teknologi (PoC) HBM-PIM dan produk lainnya, dan sedang memasuki tahap komersialisasi produk, bersiap untuk produksi massal. Produk inti dari teknologi ini adalah seri LPDDR, yang telah dioptimalkan untuk ponsel pintar dan perangkat AI terminal.

Selain itu, SK Hynix juga melakukan penataan terkait PIM. Pada pameran “CES 2026” di Amerika Serikat tahun ini, mereka menampilkan berbagai produk dan teknologi inovatif, termasuk AiMX berbasis arsitektur PIM. Shanghai Securities menyatakan bahwa untuk mempercepat penerapan AI dan mendorong pertumbuhan lalu lintas data, chip penyimpanan telah meningkat dari komponen biasa menjadi produk inti bernilai industri AI. Melalui terobosan teknologi dan kolaborasi ekosistem, mereka membangun daya saing inti penyimpanan AI.

Zhongyou Securities menyebutkan bahwa sebagai arsitektur komputasi baru, inti dari integrasi penyimpanan dan komputasi adalah menggabungkan keduanya secara penuh, menambahkan kemampuan komputasi ke dalam memori, dan melakukan perhitungan matriks dua dan tiga dimensi dengan arsitektur komputasi yang efisien baru. Dengan teknologi kemasan canggih pasca-Moore dan perangkat penyimpanan baru, ini dapat secara efektif mengatasi hambatan arsitektur von Neumann dan meningkatkan efisiensi energi komputasi secara signifikan. PIM menanamkan unit komputasi ke dalam chip memori, sehingga memori itu sendiri memiliki kemampuan komputasi tertentu, cocok untuk tugas yang membutuhkan data intensif, dan dapat secara signifikan meningkatkan efisiensi pengolahan data dan rasio efisiensi energi.

CITIC Securities menyatakan bahwa, sebagai arsitektur komputasi baru, inti dari integrasi penyimpanan dan perhitungan adalah menggabungkan keduanya secara penuh, dengan memori yang mampu melakukan perhitungan. Dengan teknologi kemasan canggih pasca-Moore dan perangkat penyimpanan baru, ini dapat secara efektif mengatasi hambatan arsitektur von Neumann dan meningkatkan efisiensi energi secara kuantitatif. PIM menanamkan unit komputasi ke dalam chip memori, sehingga memori memiliki kemampuan komputasi tertentu, cocok untuk tugas yang membutuhkan data besar, dan dapat secara signifikan meningkatkan efisiensi pengolahan data dan rasio efisiensi energi.

CITIC Securities juga menyatakan bahwa saat ini, performa DRAM (bandwidth dan kapasitas) adalah hambatan terbesar dalam arsitektur memori komputasi. Semakin besar model pelatihan, semakin tinggi kebutuhan kapasitas memori. Pada tahap inferensi, semakin banyak pengguna secara bersamaan, semakin besar kebutuhan bandwidth (pelatihan lebih terbatas pada kapasitas, inferensi lebih terbatas pada bandwidth), sehingga kebutuhan peningkatan sangat mendesak. Dalam era AI, peningkatan penyimpanan yang dibutuhkan adalah “integrasi penyimpanan dan perhitungan”, dan “komputasi dekat memori” (PNM) adalah jalur yang efektif saat ini.

(Sumber artikel: Cailian Press)

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
Tambahkan komentar
Tambahkan komentar
Tidak ada komentar
  • Sematkan