Dasar
Spot
Perdagangkan kripto dengan bebas
Perdagangan Margin
Perbesar keuntungan Anda dengan leverage
Konversi & Investasi Otomatis
0 Fees
Perdagangkan dalam ukuran berapa pun tanpa biaya dan tanpa slippage
ETF
Dapatkan eksposur ke posisi leverage dengan mudah
Perdagangan Pre-Market
Perdagangkan token baru sebelum listing
Futures
Akses ribuan kontrak perpetual
CFD
Emas
Satu platform aset tradisional global
Opsi
Hot
Perdagangkan Opsi Vanilla ala Eropa
Akun Terpadu
Memaksimalkan efisiensi modal Anda
Perdagangan Demo
Pengantar tentang Perdagangan Futures
Bersiap untuk perdagangan futures Anda
Acara Futures
Gabung acara & dapatkan hadiah
Perdagangan Demo
Gunakan dana virtual untuk merasakan perdagangan bebas risiko
Peluncuran
CandyDrop
Koleksi permen untuk mendapatkan airdrop
Launchpool
Staking cepat, dapatkan token baru yang potensial
HODLer Airdrop
Pegang GT dan dapatkan airdrop besar secara gratis
Pre-IPOs
Buka akses penuh ke IPO saham global
Poin Alpha
Perdagangkan aset on-chain, raih airdrop
Poin Futures
Dapatkan poin futures dan klaim hadiah airdrop
Investasi
Simple Earn
Dapatkan bunga dengan token yang menganggur
Investasi Otomatis
Investasi otomatis secara teratur
Investasi Ganda
Keuntungan dari volatilitas pasar
Soft Staking
Dapatkan hadiah dengan staking fleksibel
Pinjaman Kripto
0 Fees
Menjaminkan satu kripto untuk meminjam kripto lainnya
Pusat Peminjaman
Hub Peminjaman Terpadu
Promosi
AI
Gate AI
Partner AI serbaguna untuk Anda
Gate AI Bot
Gunakan Gate AI langsung di aplikasi sosial Anda
GateClaw
Gate Blue Lobster, langsung pakai
Gate for AI Agent
Infrastruktur AI, Gate MCP, Skills, dan CLI
Gate Skills Hub
10RB+ Skills
Dari kantor hingga trading, satu platform keterampilan membuat AI jadi lebih mudah digunakan
GateRouter
Pilih secara cerdas dari 40+ model AI, dengan 0% biaya tambahan
Situasi penyebaran AI… Kunci kemenangan dan kekalahan bukanlah ‘kompetisi GPU’, melainkan infrastruktur inferensi yang hemat biaya dan efisien
Seiring perusahaan memperkenalkan kecerdasan buatan (AI) melewati tahap percobaan, memasuki tahap penyebaran secara menyeluruh, kunci kemenangan pasar juga sedang berubah. Kini, inti kompetisi bukan lagi sekadar menumpuk model yang lebih besar dan lebih banyak prosesor grafis (GPU), tetapi siapa yang dapat membangun “sistem inferensi AI yang dapat diperluas” yang berjalan stabil sambil mengontrol anggaran.
Red Hat dan Intel sedang mengikuti tren ini, mempercepat pengembangan infrastruktur inferensi AI berbasis teknologi sumber terbuka. Kepala Insinyur Inferensi AI Red Hat, Taneem Ibrahim, dan Wakil Presiden Divisi Data Center dan AI Intel, Bill Pearson, menyatakan di “Red Hat Summit 2026” bahwa tantangan nyata dalam pengoperasian layanan AI skala besar adalah efisiensi biaya dan optimalisasi kombinasi infrastruktur.
Peralihan dari kecenderungan GPU tunggal ke strategi paralel CPU
Pada tahap awal penyebaran AI generatif, setelah munculnya ChatGPT dan model bobot terbuka, praktik utama adalah menempatkan model besar sebanyak mungkin di kluster GPU yang besar. Namun, dalam lingkungan perusahaan nyata, biaya operasional dan kontrol menjadi sama pentingnya dengan kinerja. Saat ini, bagaimana mengembangkan model secara efisien di platform seperti Red Hat Enterprise Linux (RHEL) dan OpenShift telah menjadi fokus utama.
Ibrahim menyatakan bahwa Red Hat semakin banyak memikirkan bagaimana mengelola salah satu proyek sumber terbuka yang paling banyak berkontribusi, “vLLM”, dalam lingkungan skala besar. Dia menunjukkan bahwa tantangan utama adalah mengurangi “biaya per token” agar AI dapat diterapkan dalam bisnis nyata, sambil mempertahankan kemampuan pengelolaan, dan melakukan deployment skala besar.
Baru-baru ini, prioritas infrastruktur juga mengalami perubahan. Pearson menjelaskan bahwa berbeda dari fase awal yang berfokus pada GPU, dengan menyebarnya “AI proxy”, peran Central Processing Unit (CPU) kembali menonjol. Ini berarti tidak semua pekerjaan AI membutuhkan GPU; tergantung pada jenis beban kerja yang diproses, kombinasi CPU dan GPU yang tepat menjadi semakin penting.
Red Hat dan Intel memperluas dukungan vLLM berbasis Xeon
Berdasarkan penilaian ini, kedua perusahaan mengintegrasikan fitur dukungan penuh vLLM di lingkungan Intel Xeon dalam versi “Red Hat AI 3.4”. Inti dari integrasi ini bukanlah pendekatan “satu ukuran cocok untuk semua” dalam merekomendasikan konfigurasi yang sama kepada semua pelanggan, tetapi merancang kombinasi perangkat keras dan perangkat lunak berdasarkan sifat bisnis dan hasil yang diharapkan dari masing-masing perusahaan.
Pearson menganalisis bahwa banyak perusahaan sebelumnya mengadopsi pendekatan “memiliki palu di tangan dan melihat semua sebagai paku”, dengan fokus pada solusi berbasis GPU. Tetapi dia menjelaskan bahwa jika menilai ulang sumber daya CPU yang sudah besar-besaran di pusat data dan beralih ke penambahan GPU sesuai kebutuhan, maka kinerja yang lebih baik dan biaya yang lebih rendah dapat dicapai secara bersamaan.
Terutama, pekerjaan proxy AI seperti panggilan alat dan orkestrasi data, banyak yang dapat diproses tanpa GPU. Intel berpendapat bahwa membebankan tugas inferensi ini ke CPU dapat membebaskan GPU untuk fokus pada perhitungan yang lebih berat, sehingga meningkatkan efisiensi seluruh sistem.
Persaingan infrastruktur AI: “Efisiensi operasional” semakin penting daripada “kinerja”
Diskusi ini menunjukkan bahwa pasar AI saat ini telah melampaui kompetisi sekadar kinerja model, beralih ke kompetisi ekonomi di tahap operasional. Bagi perusahaan, daripada hanya mendapatkan perangkat berkinerja tertinggi, cara memanfaatkan aset pusat data yang ada secara optimal, sambil mencapai “biaya token yang rendah” dan layanan yang stabil, menjadi tantangan yang lebih realistis.
Akhirnya, pemenang kompetisi AI generasi berikutnya kemungkinan bukanlah perusahaan dengan perangkat keras paling kuat, tetapi perusahaan yang mampu memaksimalkan “rasio biaya-manfaat” melalui kombinasi CPU-GPU yang tepat dan perangkat lunak sumber terbuka. Kerja sama Red Hat dan Intel ini juga dipandang sebagai langkah mengikuti tren pasar tersebut.
TP AI Catatan: Artikel ini dirangkum berdasarkan model bahasa TokenPost.ai. Isi utama mungkin ada yang terlewatkan atau tidak sesuai fakta.