【AI+硬件】"Lobster" OpenClaw Memicu Perubahan Permintaan Perangkat Keras, Apakah Harga Memori Akan Terus Naik? Morgan Stanley: Eksekusi Memerlukan Lebih Banyak DRAM Daripada Pemikiran

robot
Pembuatan abstrak sedang berlangsung

Belakangan ini, OpenClaw memicu gelombang “budidaya lobster”. Morgan Stanley menunjukkan bahwa agen kecerdasan buatan (AI agent) yang diwakili oleh OpenClaw memicu perubahan kebutuhan perangkat keras, di mana bottleneck kecerdasan buatan beralih dari kekuatan komputasi ke pemrosesan data. Tugas eksekusi membutuhkan lebih banyak DRAM (Dynamic Random Access Memory), sehingga pasokan DRAM akan menjadi lebih ketat.

Laporan tersebut menaikkan target harga SK Hynix menjadi 1,3 juta won Korea, dan sekaligus menaikkan target harga saham biasa Samsung Electronics menjadi 251.000 won Korea, keduanya mempertahankan peringkat “buy” (beli).

Laporan memperkirakan bahwa harga memori akan meningkat dengan percepatan tahunan, saat ini berada di tahap tengah kenaikan. Secara spesifik, pada kuartal kedua 2026, harga DRAM DDR5 yang digunakan terutama untuk komputasi tingkat tinggi diperkirakan akan melonjak lebih dari 50% secara kuartalan, sedangkan DDR4 yang lebih umum digunakan diperkirakan akan naik antara 30% hingga 40%. Harga produk NAND eSSD yang digunakan untuk server diperkirakan akan berlipat ganda.

Bottleneck perangkat keras berpindah dan permintaan DRAM menjadi ketat dalam mode “eksekusi mandiri” AI

Berbeda dengan AI generatif seperti ChatGPT yang berfungsi sebagai “tanya jawab satu” saja, OpenClaw bekerja lebih seperti tim asisten yang efisien, melalui pencarian otomatis informasi web, pemanggilan alat perangkat lunak eksternal, membaca dan menganalisis dokumen, bahkan menjalankan kode program, hingga akhirnya menghasilkan output yang kompleks.

Analisis Morgan Stanley menyatakan bahwa mode eksekusi yang melibatkan koordinasi multi-langkah, pemanggilan alat, dan pengaturan proses, menyebabkan bottleneck perangkat keras AI beralih dari GPU (Graphics Processing Unit) ke CPU (Central Processing Unit) dan memori. Waktu komputasi CPU akan memperlambat seluruh proses eksekusi tugas. Selain itu, antar agen cerdas harus terus berbagi konteks, melepaskan cache KV (Key-Value Cache), menyimpan dan mengambil hasil dari setiap langkah tengah, yang sangat menguras ruang DRAM.

Pada era model bahasa besar (LLM) tradisional, kekuatan GPU dianggap sebagai bottleneck utama, sementara CPU hanya perlu mengubah token (istilah umum untuk satuan pengukuran sumber daya komputasi AI atau biaya layanan) menjadi teks, dan DRAM cukup digunakan untuk tugas cache baca tulis.


Hot Talk Keuangan

Gelombang “budidaya lobster” beralih ke “gelombang penghapusan”, apakah konsep agen AI sudah selesai dipopulerkan?

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
Tambahkan komentar
Tambahkan komentar
Tidak ada komentar
  • Sematkan