Dasar
Spot
Perdagangkan kripto dengan bebas
Perdagangan Margin
Perbesar keuntungan Anda dengan leverage
Konversi & Investasi Otomatis
0 Fees
Perdagangkan dalam ukuran berapa pun tanpa biaya dan tanpa slippage
ETF
Dapatkan eksposur ke posisi leverage dengan mudah
Perdagangan Pre-Market
Perdagangkan token baru sebelum listing
Futures
Akses ribuan kontrak perpetual
TradFi
Emas
Satu platform aset tradisional global
Opsi
Hot
Perdagangkan Opsi Vanilla ala Eropa
Akun Terpadu
Memaksimalkan efisiensi modal Anda
Perdagangan Demo
Pengantar tentang Perdagangan Futures
Bersiap untuk perdagangan futures Anda
Acara Futures
Gabung acara & dapatkan hadiah
Perdagangan Demo
Gunakan dana virtual untuk merasakan perdagangan bebas risiko
Peluncuran
CandyDrop
Koleksi permen untuk mendapatkan airdrop
Launchpool
Staking cepat, dapatkan token baru yang potensial
HODLer Airdrop
Pegang GT dan dapatkan airdrop besar secara gratis
Launchpad
Jadi yang pertama untuk proyek token besar berikutnya
Poin Alpha
Perdagangkan aset on-chain, raih airdrop
Poin Futures
Dapatkan poin futures dan klaim hadiah airdrop
Investasi
Simple Earn
Dapatkan bunga dengan token yang menganggur
Investasi Otomatis
Investasi otomatis secara teratur
Investasi Ganda
Keuntungan dari volatilitas pasar
Soft Staking
Dapatkan hadiah dengan staking fleksibel
Pinjaman Kripto
0 Fees
Menjaminkan satu kripto untuk meminjam kripto lainnya
Pusat Peminjaman
Hub Peminjaman Terpadu
"Lobster" memberikan "memori" perpanjangan umur yang signifikan?
Alat AI agenik (Agentic AI) yang diwakili oleh OpenClaw sedang mendorong logika permintaan pasar memori ke paradigma yang benar-benar baru. Menurut informasi dari Zhifeng Trading Platform, laporan terbaru yang dirilis Morgan Stanley pada 18 Maret menunjukkan bahwa: AI yang beralih dari “berpikir” ke “melaksanakan” akan menyebabkan DRAM menggantikan HBM sebagai hambatan chip paling sulit ditembus dalam infrastruktur AI, sehingga siklus memori akan mengalami masa perpanjangan yang jauh melebihi ekspektasi.
Survei saluran menunjukkan bahwa pada kuartal kedua 2026, harga DDR5 server DRAM diperkirakan akan meningkat lebih dari 50% secara bulanan, dengan beberapa penyedia cloud skala besar di China menawarkan harga yang lebih tinggi; harga kontrak DDR4 diperkirakan akan naik 40%-50%, dan harga SSD enterprise NAND diperkirakan akan meningkat tidak kurang dari 40%-50%. Morgan Stanley berpendapat bahwa, saat ini berada di tengah siklus kenaikan memori, dan tingkat ketatnya pasokan melebihi perkiraan sebelumnya—“Proyeksi laba Wall Street harus menyesuaikan dengan kenyataan.”
Penilaian tersebut langsung tercermin dalam penyesuaian target harga: proyeksi EPS SK Hynix untuk 2026-2027 masing-masing naik 24% dan 32%, dengan target harga dari 1,1 juta won Korea menjadi 1,3 juta won Korea, yang mengimplikasikan potensi kenaikan sebesar 43% dari harga saat ini; target harga saham biasa Samsung Electronics naik menjadi 251.000 won Korea, keduanya tetap dengan peringkat “buy” (beli).
Inti dari penilaian Morgan Stanley adalah: pasar terbiasa dengan pemikiran linier, sementara kemampuan lapisan AI berkembang dengan kecepatan eksponensial—ketika AI bertransisi dari “menghasilkan jawaban” menjadi “menyelesaikan tugas,” skala kebutuhan memori akan melonjak secara signifikan, dan perubahan ini baru saja mulai mempercepat.
“Melakukan sesuatu” lebih banyak memakan memori daripada “berpikir tentang sesuatu”
Dasar logika laporan Morgan Stanley dimulai dari sebuah penilaian yang tampaknya sederhana namun mengandung makna mendalam: “Melakukan sesuatu membutuhkan lebih banyak DRAM daripada berpikir.”
Model bahasa besar (LLM) tradisional beroperasi dalam proses linier yang didominasi GPU: menerima pertanyaan, memproses semua token input secara batch (fase prefill), lalu menghasilkan jawaban token demi token (fase decoding), sementara CPU bertanggung jawab mengubah hasil menjadi output teks. Dalam proses ini, kekuatan GPU adalah hambatan utama, dan DRAM hanya diperlukan untuk mendukung pembacaan dan penulisan cache.
Kemunculan AI agenik secara drastis mengubah logika ini. Sebagai contoh, OpenClaw, asisten AI open-source yang dihosting sendiri, dapat terhubung secara bersamaan ke lebih dari 50 platform pesan seperti WhatsApp, Telegram, Slack, Signal, dan memiliki izin sistem tingkat tinggi seperti otomatisasi browser, manipulasi file, eksekusi command line, dan panggilan API. Ia bukan sekadar “menjawab pertanyaan,” melainkan “menyelesaikan tugas”—menelusuri internet, membaca dokumen, memanggil alat eksternal, menjalankan kode, dan akhirnya menghasilkan satu set hasil aksi yang dibuat melalui kolaborasi multi langkah.
Inti dari perubahan paradigma ini adalah: Alur kerja yang sebelumnya hanya melibatkan inferensi GPU sekali, kini berkembang menjadi proses koordinasi multi langkah, panggilan alat, dan orkestrasi yang melibatkan CPU, di mana waktu komputasi CPU sering kali melebihi GPU dalam kontribusinya terhadap total latensi. Pada saat yang sama, antar agen harus terus berbagi konteks, mengurangi beban cache KV (Key-Value), menyimpan dan mengambil hasil dari setiap langkah tengah—memori dari rantai kekuatan komputasi kini melonjak dari belakang ke posisi hambatan utama.
OpenClaw: Kaca pembesar kebutuhan memori ekstrem
Morgan Stanley melakukan analisis kuantitatif mendalam terhadap kebutuhan memori OpenClaw, dan menyimpulkan bahwa: dalam jenis alat agenik ini, DRAM mendominasi segalanya, sementara batasan perangkat keras lainnya menjadi sekunder.
Alat ini memiliki dua mode operasi yang sangat berbeda:
Mode gateway ringan (memanggil API eksternal seperti Claude atau GPT-4 secara jarak jauh): meskipun demikian, hambatannya bukan lagi GPU atau CPU, melainkan penggunaan DRAM oleh runtime Node.js. Penggunaan minimal nyata adalah 2GB DRAM, dan untuk operasi stabil di tingkat produksi disarankan konfigurasi 4GB.
Mode model lokal (memuat dan menjalankan model AI langsung di perangkat): DRAM dan HBM grafis menjadi dua batasan utama. Morgan Stanley menyarankan konfigurasi 32GB RAM sistem; menjalankan model dengan 7-8 miliar parameter membutuhkan tambahan 8GB VRAM grafis, model 13-70 miliar parameter membutuhkan 16-24GB, dan model besar seperti Llama 3 70B, Qwen 72B, dll., membutuhkan lebih dari 80GB.
Laporan secara khusus menekankan: kekurangan memori bukan hanya menurunkan performa, tetapi langsung menyebabkan crash—JavaScript akan melempar error “heap out of memory” (heap memori habis), yang menyebabkan kegagalan instalasi dan gangguan operasi. Detail ini secara mendalam mengungkapkan sifat batas keras memori dalam skenario agenik: kekurangan memori bukan lambat, tetapi “mati.”
Perpindahan hambatan kekuatan komputasi: dari HBM ke memori sistem
Karakteristik kebutuhan memori OpenClaw adalah cerminan dari perubahan struktural yang lebih luas.
Morgan Stanley menunjukkan bahwa hambatan kekuatan komputasi AI sedang mengalami pergeseran sistemik: dari kekuatan komputasi itu sendiri ke perpindahan data, dari HBM ke memori sistem (DRAM), sehingga arsitektur tingkat memori secara keseluruhan bertransformasi dari yang berpusat pada HBM menjadi struktur multi-layer yang menggabungkan HBM, DRAM, dan NVMe NAND SSD.
Salah satu pendorong utama perubahan ini adalah kebutuhan konteks panjang (long context) yang berkembang pesat. Cache KV meningkat secara linier seiring jumlah token, dan dalam skenario inferensi terdistribusi (prefill-decode disaggregation), harus ditransfer melalui jaringan, secara signifikan meningkatkan beban I/O CPU. Operasi inti agen seperti pencarian RAG dan manajemen konteks melibatkan I/O memori yang intensif.
Konfirmasi dari pasar juga sangat jelas. Menurut Morgan Stanley, Intel dan AMD baru-baru ini mengonfirmasi bahwa prosesor server dengan banyak inti sudah mengalami kekurangan nyata; pendapatan CPU EPYC AMD pertama kali melebihi 40% dari total pendapatan CPU server, dan instance cloud berbasis EPYC meningkat lebih dari 50% YoY. Nvidia meluncurkan CPU Vera yang dijual secara terpisah dan menandatangani perjanjian multi-tahun dengan Meta, untuk pertama kalinya menempatkan CPU terpisah dalam skenario skala besar guna mendukung operasi agen pribadi.
Harga melonjak: siklus tengah, ruang masih ada
Perubahan struktural di atas sudah menunjukkan dampak nyata pada harga.
Dalam hal DRAM, pada kuartal kedua 2026, harga DDR5 server telah diperdagangkan secara terbatas dengan kenaikan 50% secara bulanan, dan beberapa penyedia cloud skala besar di China menerima harga tersebut, dengan beberapa menawarkan harga lebih tinggi. Pada akhir Februari, harga kontrak RDIMM 64GB telah naik menjadi sekitar 910-920 USD, sekitar 20% lebih tinggi dari rata-rata kuartal pertama yang sekitar 800 USD. Harga DDR4 dan DRAM terkait elektronik konsumen diperkirakan akan naik setidaknya 40%-50% di kuartal kedua; HBM3E yang sebelumnya diperkirakan turun 20%-25%, dalam perpanjangan kontrak ASIC sudah berbalik menjadi kenaikan satu digit persen.
Dalam NAND, harga SSD enterprise diperkirakan akan naik 40%-50% secara bulanan di kuartal kedua, dan produk konsumen diperkirakan akan meningkat tidak kurang dari 60%, bahkan dalam beberapa skenario harga eSSD bisa dua kali lipat lagi di kuartal kedua.
Morgan Stanley berpendapat bahwa tren kenaikan harga YoY terus berlanjut, dan saat ini masih berada di tengah siklus kenaikan. Setelah pasar menyesuaikan proyeksi laba untuk mencerminkan pembatasan kapasitas yang belum pernah terjadi sebelumnya, ada ruang pemulihan yang signifikan untuk saham terkait; potensi peningkatan pengembalian modal juga dapat mendukung kinerja luar biasa lebih lanjut.