"Lobster" memberikan "memori" perpanjangan umur yang signifikan?

robot
Pembuatan abstrak sedang berlangsung

Alat AI agenik (Agentic AI) yang diwakili oleh OpenClaw sedang mendorong logika permintaan pasar memori ke paradigma yang benar-benar baru. Menurut informasi dari Zhifeng Trading Platform, laporan terbaru yang dirilis Morgan Stanley pada 18 Maret menunjukkan bahwa: AI yang beralih dari “berpikir” ke “melaksanakan” akan menyebabkan DRAM menggantikan HBM sebagai hambatan chip paling sulit ditembus dalam infrastruktur AI, sehingga siklus memori akan mengalami masa perpanjangan yang jauh melebihi ekspektasi.

Survei saluran menunjukkan bahwa pada kuartal kedua 2026, harga DDR5 server DRAM diperkirakan akan meningkat lebih dari 50% secara bulanan, dengan beberapa penyedia cloud skala besar di China menawarkan harga yang lebih tinggi; harga kontrak DDR4 diperkirakan akan naik 40%-50%, dan harga SSD enterprise NAND diperkirakan akan meningkat tidak kurang dari 40%-50%. Morgan Stanley berpendapat bahwa, saat ini berada di tengah siklus kenaikan memori, dan tingkat ketatnya pasokan melebihi perkiraan sebelumnya—“Proyeksi laba Wall Street harus menyesuaikan dengan kenyataan.”

Penilaian tersebut langsung tercermin dalam penyesuaian target harga: proyeksi EPS SK Hynix untuk 2026-2027 masing-masing naik 24% dan 32%, dengan target harga dari 1,1 juta won Korea menjadi 1,3 juta won Korea, yang mengimplikasikan potensi kenaikan sebesar 43% dari harga saat ini; target harga saham biasa Samsung Electronics naik menjadi 251.000 won Korea, keduanya tetap dengan peringkat “buy” (beli).

Inti dari penilaian Morgan Stanley adalah: pasar terbiasa dengan pemikiran linier, sementara kemampuan lapisan AI berkembang dengan kecepatan eksponensial—ketika AI bertransisi dari “menghasilkan jawaban” menjadi “menyelesaikan tugas,” skala kebutuhan memori akan melonjak secara signifikan, dan perubahan ini baru saja mulai mempercepat.

“Melakukan sesuatu” lebih banyak memakan memori daripada “berpikir tentang sesuatu”

Dasar logika laporan Morgan Stanley dimulai dari sebuah penilaian yang tampaknya sederhana namun mengandung makna mendalam: “Melakukan sesuatu membutuhkan lebih banyak DRAM daripada berpikir.”

Model bahasa besar (LLM) tradisional beroperasi dalam proses linier yang didominasi GPU: menerima pertanyaan, memproses semua token input secara batch (fase prefill), lalu menghasilkan jawaban token demi token (fase decoding), sementara CPU bertanggung jawab mengubah hasil menjadi output teks. Dalam proses ini, kekuatan GPU adalah hambatan utama, dan DRAM hanya diperlukan untuk mendukung pembacaan dan penulisan cache.

Kemunculan AI agenik secara drastis mengubah logika ini. Sebagai contoh, OpenClaw, asisten AI open-source yang dihosting sendiri, dapat terhubung secara bersamaan ke lebih dari 50 platform pesan seperti WhatsApp, Telegram, Slack, Signal, dan memiliki izin sistem tingkat tinggi seperti otomatisasi browser, manipulasi file, eksekusi command line, dan panggilan API. Ia bukan sekadar “menjawab pertanyaan,” melainkan “menyelesaikan tugas”—menelusuri internet, membaca dokumen, memanggil alat eksternal, menjalankan kode, dan akhirnya menghasilkan satu set hasil aksi yang dibuat melalui kolaborasi multi langkah.

Inti dari perubahan paradigma ini adalah: Alur kerja yang sebelumnya hanya melibatkan inferensi GPU sekali, kini berkembang menjadi proses koordinasi multi langkah, panggilan alat, dan orkestrasi yang melibatkan CPU, di mana waktu komputasi CPU sering kali melebihi GPU dalam kontribusinya terhadap total latensi. Pada saat yang sama, antar agen harus terus berbagi konteks, mengurangi beban cache KV (Key-Value), menyimpan dan mengambil hasil dari setiap langkah tengah—memori dari rantai kekuatan komputasi kini melonjak dari belakang ke posisi hambatan utama.

OpenClaw: Kaca pembesar kebutuhan memori ekstrem

Morgan Stanley melakukan analisis kuantitatif mendalam terhadap kebutuhan memori OpenClaw, dan menyimpulkan bahwa: dalam jenis alat agenik ini, DRAM mendominasi segalanya, sementara batasan perangkat keras lainnya menjadi sekunder.

Alat ini memiliki dua mode operasi yang sangat berbeda:

Mode gateway ringan (memanggil API eksternal seperti Claude atau GPT-4 secara jarak jauh): meskipun demikian, hambatannya bukan lagi GPU atau CPU, melainkan penggunaan DRAM oleh runtime Node.js. Penggunaan minimal nyata adalah 2GB DRAM, dan untuk operasi stabil di tingkat produksi disarankan konfigurasi 4GB.

Mode model lokal (memuat dan menjalankan model AI langsung di perangkat): DRAM dan HBM grafis menjadi dua batasan utama. Morgan Stanley menyarankan konfigurasi 32GB RAM sistem; menjalankan model dengan 7-8 miliar parameter membutuhkan tambahan 8GB VRAM grafis, model 13-70 miliar parameter membutuhkan 16-24GB, dan model besar seperti Llama 3 70B, Qwen 72B, dll., membutuhkan lebih dari 80GB.

Laporan secara khusus menekankan: kekurangan memori bukan hanya menurunkan performa, tetapi langsung menyebabkan crash—JavaScript akan melempar error “heap out of memory” (heap memori habis), yang menyebabkan kegagalan instalasi dan gangguan operasi. Detail ini secara mendalam mengungkapkan sifat batas keras memori dalam skenario agenik: kekurangan memori bukan lambat, tetapi “mati.”

Perpindahan hambatan kekuatan komputasi: dari HBM ke memori sistem

Karakteristik kebutuhan memori OpenClaw adalah cerminan dari perubahan struktural yang lebih luas.

Morgan Stanley menunjukkan bahwa hambatan kekuatan komputasi AI sedang mengalami pergeseran sistemik: dari kekuatan komputasi itu sendiri ke perpindahan data, dari HBM ke memori sistem (DRAM), sehingga arsitektur tingkat memori secara keseluruhan bertransformasi dari yang berpusat pada HBM menjadi struktur multi-layer yang menggabungkan HBM, DRAM, dan NVMe NAND SSD.

Salah satu pendorong utama perubahan ini adalah kebutuhan konteks panjang (long context) yang berkembang pesat. Cache KV meningkat secara linier seiring jumlah token, dan dalam skenario inferensi terdistribusi (prefill-decode disaggregation), harus ditransfer melalui jaringan, secara signifikan meningkatkan beban I/O CPU. Operasi inti agen seperti pencarian RAG dan manajemen konteks melibatkan I/O memori yang intensif.

Konfirmasi dari pasar juga sangat jelas. Menurut Morgan Stanley, Intel dan AMD baru-baru ini mengonfirmasi bahwa prosesor server dengan banyak inti sudah mengalami kekurangan nyata; pendapatan CPU EPYC AMD pertama kali melebihi 40% dari total pendapatan CPU server, dan instance cloud berbasis EPYC meningkat lebih dari 50% YoY. Nvidia meluncurkan CPU Vera yang dijual secara terpisah dan menandatangani perjanjian multi-tahun dengan Meta, untuk pertama kalinya menempatkan CPU terpisah dalam skenario skala besar guna mendukung operasi agen pribadi.

Harga melonjak: siklus tengah, ruang masih ada

Perubahan struktural di atas sudah menunjukkan dampak nyata pada harga.

Dalam hal DRAM, pada kuartal kedua 2026, harga DDR5 server telah diperdagangkan secara terbatas dengan kenaikan 50% secara bulanan, dan beberapa penyedia cloud skala besar di China menerima harga tersebut, dengan beberapa menawarkan harga lebih tinggi. Pada akhir Februari, harga kontrak RDIMM 64GB telah naik menjadi sekitar 910-920 USD, sekitar 20% lebih tinggi dari rata-rata kuartal pertama yang sekitar 800 USD. Harga DDR4 dan DRAM terkait elektronik konsumen diperkirakan akan naik setidaknya 40%-50% di kuartal kedua; HBM3E yang sebelumnya diperkirakan turun 20%-25%, dalam perpanjangan kontrak ASIC sudah berbalik menjadi kenaikan satu digit persen.

Dalam NAND, harga SSD enterprise diperkirakan akan naik 40%-50% secara bulanan di kuartal kedua, dan produk konsumen diperkirakan akan meningkat tidak kurang dari 60%, bahkan dalam beberapa skenario harga eSSD bisa dua kali lipat lagi di kuartal kedua.

Morgan Stanley berpendapat bahwa tren kenaikan harga YoY terus berlanjut, dan saat ini masih berada di tengah siklus kenaikan. Setelah pasar menyesuaikan proyeksi laba untuk mencerminkan pembatasan kapasitas yang belum pernah terjadi sebelumnya, ada ruang pemulihan yang signifikan untuk saham terkait; potensi peningkatan pengembalian modal juga dapat mendukung kinerja luar biasa lebih lanjut.


Semua konten menarik ini berasal dari Zhifeng Trading Platform.

Untuk analisis yang lebih mendalam, termasuk interpretasi real-time dan riset langsung, silakan bergabung dengan【**Zhifeng Trading Platform▪Keanggotaan Tahunan**】.

Peringatan risiko dan ketentuan penafian

Pasar memiliki risiko, investasi harus dilakukan dengan hati-hati. Artikel ini tidak merupakan saran investasi pribadi, dan tidak mempertimbangkan tujuan investasi, kondisi keuangan, atau kebutuhan khusus pengguna. Pengguna harus menilai apakah pendapat, pandangan, atau kesimpulan dalam artikel ini sesuai dengan kondisi mereka. Investasi berdasarkan artikel ini adalah tanggung jawab sendiri.
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
Tambahkan komentar
Tambahkan komentar
Tidak ada komentar
  • Sematkan