Dasar
Spot
Perdagangkan kripto dengan bebas
Perdagangan Margin
Perbesar keuntungan Anda dengan leverage
Konversi & Investasi Otomatis
0 Fees
Perdagangkan dalam ukuran berapa pun tanpa biaya dan tanpa slippage
ETF
Dapatkan eksposur ke posisi leverage dengan mudah
Perdagangan Pre-Market
Perdagangkan token baru sebelum listing
Futures
Akses ribuan kontrak perpetual
TradFi
Emas
Satu platform aset tradisional global
Opsi
Hot
Perdagangkan Opsi Vanilla ala Eropa
Akun Terpadu
Memaksimalkan efisiensi modal Anda
Perdagangan Demo
Pengantar tentang Perdagangan Futures
Bersiap untuk perdagangan futures Anda
Acara Futures
Gabung acara & dapatkan hadiah
Perdagangan Demo
Gunakan dana virtual untuk merasakan perdagangan bebas risiko
Peluncuran
CandyDrop
Koleksi permen untuk mendapatkan airdrop
Launchpool
Staking cepat, dapatkan token baru yang potensial
HODLer Airdrop
Pegang GT dan dapatkan airdrop besar secara gratis
Pre-IPOs
Buka akses penuh ke IPO saham global
Poin Alpha
Perdagangkan aset on-chain, raih airdrop
Poin Futures
Dapatkan poin futures dan klaim hadiah airdrop
Investasi
Simple Earn
Dapatkan bunga dengan token yang menganggur
Investasi Otomatis
Investasi otomatis secara teratur
Investasi Ganda
Keuntungan dari volatilitas pasar
Soft Staking
Dapatkan hadiah dengan staking fleksibel
Pinjaman Kripto
0 Fees
Menjaminkan satu kripto untuk meminjam kripto lainnya
Pusat Peminjaman
Hub Peminjaman Terpadu
Promosi
AI
Gate AI
Partner AI serbaguna untuk Anda
Gate AI Bot
Gunakan Gate AI langsung di aplikasi sosial Anda
GateClaw
Gate Blue Lobster, langsung pakai
Gate for AI Agent
Infrastruktur AI, Gate MCP, Skills, dan CLI
Gate Skills Hub
10RB+ Skills
Dari kantor hingga trading, satu platform keterampilan membuat AI jadi lebih mudah digunakan
GateRouter
Pilih secara cerdas dari 40+ model AI, dengan 0% biaya tambahan
DeepSeek V4-Flash naik ke Ollama Cloud, server AS: Claude Code, OpenClaw sekali klik integrasi
Ollama, alat untuk menjalankan model AI lokal, pada 4/24 diumumkan secara terbuka di platform X bahwa mereka akan memasukkan model V4-Flash yang dirilis sehari sebelumnya oleh startup AI China DeepSeek ke layanan Ollama Cloud. Host mesin inferensi berada di Amerika Serikat, dan menyediakan tiga set perintah sekali klik agar developer dapat langsung menghubungkan V4-Flash ke alur kerja pengembangan aplikasi AI arus utama seperti Claude Code, OpenClaw, dan Hermes.
deepseek-v4-flash is now available on Ollama’s cloud! Hosted in the US. Try it with Claude Code: ollama launch claude –model deepseek-v4-flash:cloud Try it with OpenClaw: ollama launch openclaw –model deepseek-v4-flash:cloud Try it with Hermes: ollama launch hermes…
— ollama (@ollama) April 24, 2026
Pratinjau DeepSeek V4: dua ukuran, konteks 1M
Berdasarkan pengumuman yang dirilis oleh dokumen API resmi DeepSeek pada 4/24, DeepSeek-V4 Preview dirilis secara open source dalam dua ukuran yang disinkronkan:
Model Parameter total Parameter aktif Target DeepSeek-V4-Pro 1,6 miliar 49 miliar Ditujukan untuk flagship yang tertutup DeepSeek-V4-Flash 2.840 miliar 130 miliar Cepat, efisien, biaya rendah
Kedua model sama-sama mengadopsi arsitektur Mixture-of-Experts(MoE), dengan dukungan native untuk konteks panjang hingga 1 juta tokens. Dalam pengumuman tersebut, DeepSeek menyatakan: “Konteks 1M sekarang adalah nilai default untuk semua layanan resmi DeepSeek.”
Inovasi arsitektur: DSA Sparse Attention + kompresi berbasis Token
Perbaikan arsitektur inti seri V4 mencakup:
Kompresi berbasis Token yang dipadukan dengan DSA(DeepSeek Sparse Attention)—— secara signifikan menurunkan biaya untuk komputasi inferensi dan memori cache KV pada konteks yang sangat panjang
Dibandingkan dengan V3.2, pada skenario konteks 1 juta tokens, V4-Pro hanya membutuhkan 27% FLOPs per token untuk inferensi, dan KV cache hanya memerlukan 10%
Mendukung pergantian dua mode, Thinking dan Non-Thinking, untuk memenuhi kebutuhan penalaran mendalam pada tugas yang berbeda
Pada level API sekaligus kompatibel dengan spesifikasi OpenAI ChatCompletions dan Anthropic APIs, sehingga menurunkan biaya migrasi bagi klien Claude/GPT yang sudah ada.
Tiga set perintah sekali peluncuran di Ollama Cloud
Halaman model resmi Ollama, dengan pengenal model deepseek-v4-flash:cloud, menyediakan layanan inferensi cloud. Developer dapat menggunakan tiga set perintah berikut untuk langsung menyambungkan V4-Flash ke alur kerja pengembangan aplikasi AI yang sudah ada:
Workflow Perintah Claude Code ollama launch claude --model deepseek-v4-flash:cloud OpenClaw ollama launch openclaw --model deepseek-v4-flash:cloud Hermes ollama launch hermes
Yang perlu diperhatikan adalah sinyal “host Amerika”. Bagi perusahaan dan developer Eropa-Amerika, kekhawatian terbesar saat menggunakan model open source China adalah data dikembalikan ke China; Ollama memilih menempatkan lapisan inferensi V4-Flash di Amerika Serikat, yang berarti prompt dan konten kode tidak keluar dari yurisdiksi hukum Amerika Serikat, sehingga mengurangi gesekan pada aspek kepatuhan dan kedaulatan data.
Mengapa hal ini penting bagi industri AI
Dengan menghubungkan tiga ekosistem yang sebelumnya berdiri sendiri—DeepSeek V4-Flash, Ollama Cloud, dan Claude Code—muncul tiga makna berlapis:
Jalur biaya: Parameter aktif V4-Flash sebesar 13 miliar jauh lebih kecil daripada GPT-5.5(input 5 dolar, output 30 dolar per 1 juta tokens)dan flagship seperti Claude Opus 4.7; untuk tugas agen skala menengah-kecil, ringkasan batch, otomatisasi pengujian, dll., biaya per unit diperkirakan turun secara signifikan
Lapisan penengah risiko geopolitik: Sebagai lapisan inferensi perantara yang terdaftar di Amerika Serikat, Ollama memungkinkan pengguna perusahaan model asli China untuk menghindari kekhawatiran bahwa “data langsung dikirim ke server DeepSeek di Beijing”—ini adalah solusi praktis untuk penyebaran model open source secara internasional
Pergantian instan bagi developer: Pengguna Claude Code dan OpenClaw dapat mengganti model dalam satu baris di command line, tanpa perlu mengubah struktur prompt atau pengaturan IDE; untuk skenario seperti “uji regresi multi-model” dan “tugas batch yang sensitif biaya”, ini benar-benar melepaskan produktivitas di dunia nyata
Keterkaitan dengan berita DeepSeek sebelumnya
Rilis V4 kali ini terjadi bersamaan dengan integrasi cepat dengan Ollama Cloud, di tengah latar DeepSeek yang sedang dalam pembicaraan pembiayaan eksternal putaran pertama dengan valuasi 20 miliar dolar. V4 adalah bukti produk kunci dalam proses kapitalisasi perusahaan DeepSeek; sementara strategi open source + penyebaran cepat bersama mitra host internasional adalah “perang kecepatan” sebelum membangun monopoli ekosistem developer. Bagi OpenAI dan Anthropic, model pengganti open source yang bisa diganti dalam satu baris di dalam Claude Code adalah variabel baru dalam perebutan dominasi alur kerja agent.
Artikel ini, “DeepSeek V4-Flash hadir di Ollama Cloud, host Amerika: Claude Code, OpenClaw sambungan sekali klik”, pertama kali muncul di Berita Rantai ABMedia.