Dasar
Spot
Perdagangkan kripto dengan bebas
Perdagangan Margin
Perbesar keuntungan Anda dengan leverage
Konversi & Investasi Otomatis
0 Fees
Perdagangkan dalam ukuran berapa pun tanpa biaya dan tanpa slippage
ETF
Dapatkan eksposur ke posisi leverage dengan mudah
Perdagangan Pre-Market
Perdagangkan token baru sebelum listing
Futures
Akses ribuan kontrak perpetual
CFD
Emas
Satu platform aset tradisional global
Opsi
Hot
Perdagangkan Opsi Vanilla ala Eropa
Akun Terpadu
Memaksimalkan efisiensi modal Anda
Perdagangan Demo
Pengantar tentang Perdagangan Futures
Bersiap untuk perdagangan futures Anda
Acara Futures
Gabung acara & dapatkan hadiah
Perdagangan Demo
Gunakan dana virtual untuk merasakan perdagangan bebas risiko
Peluncuran
CandyDrop
Koleksi permen untuk mendapatkan airdrop
Launchpool
Staking cepat, dapatkan token baru yang potensial
HODLer Airdrop
Pegang GT dan dapatkan airdrop besar secara gratis
Pre-IPOs
Buka akses penuh ke IPO saham global
Poin Alpha
Perdagangkan aset on-chain, raih airdrop
Poin Futures
Dapatkan poin futures dan klaim hadiah airdrop
Investasi
Simple Earn
Dapatkan bunga dengan token yang menganggur
Investasi Otomatis
Investasi otomatis secara teratur
Investasi Ganda
Keuntungan dari volatilitas pasar
Soft Staking
Dapatkan hadiah dengan staking fleksibel
Pinjaman Kripto
0 Fees
Menjaminkan satu kripto untuk meminjam kripto lainnya
Pusat Peminjaman
Hub Peminjaman Terpadu
Promosi
AI
Gate AI
Partner AI serbaguna untuk Anda
Gate AI Bot
Gunakan Gate AI langsung di aplikasi sosial Anda
GateClaw
Gate Blue Lobster, langsung pakai
Gate for AI Agent
Infrastruktur AI, Gate MCP, Skills, dan CLI
Gate Skills Hub
10RB+ Skills
Dari kantor hingga trading, satu platform keterampilan membuat AI jadi lebih mudah digunakan
GateRouter
Pilih secara cerdas dari 40+ model AI, dengan 0% biaya tambahan
Cerebras meluncurkan roadshow IPO, menargetkan $115-$125 per saham
Cerebras Systems akan mulai menawarkan sahamnya kepada investor pada hari Senin, dengan rencana menjual saham di antara $115 dan $125 masing-masing, menurut seseorang yang mengetahui rencana tersebut yang berbicara kepada Reuters.
Pembuat chip kecerdasan buatan ini mencoba go public untuk kedua kalinya. Perusahaan menarik upaya pertamanya pada bulan Oktober tahun lalu.
Cerebras melaporkan hasil keuangan yang lebih kuat untuk tahun yang berakhir 31 Desember. Perusahaan menghasilkan pendapatan sebesar $510 juta, lonjakan dari $290,3 juta tahun sebelumnya. Perusahaan juga meraih laba sebesar $1,38 per saham, dibandingkan dengan kerugian $9,90 per saham pada tahun sebelumnya.
Morgan Stanley, Citigroup, Barclays, dan UBS menangani penjualan saham tersebut.
Industri sedang mengalami pergeseran
Strategi Cerebras bukanlah tanpa alasan. Industri AI sedang beralih dari pengembangan model AI baru ke menjalankan model tersebut untuk penggunaan nyata. Pergeseran ini adalah peluang emas bagi perusahaan kecil yang bersaing dengan monopoli Nvidia (NASDAQ: NVDA). Seperti dilaporkan Cryptopolitan, bahkan OpenAI pun tidak yakin dengan perangkat keras inferensi Nvidia.
Ini karena menjalankan model AI, yang dikenal sebagai inferensi, membutuhkan kemampuan berbeda dibandingkan melatihnya. Hal ini membuka peluang bagi pembuat chip khusus untuk menemukan tempat mereka di pasar. Memproses batch besar informasi membutuhkan keseimbangan yang berbeda antara daya komputasi, memori, dan kecepatan transfer data dibandingkan menjalankan chatbot AI atau asisten pengkodean.
Keragaman dalam kebutuhan ini membuat pasar inferensi menjadi lebih beragam. Beberapa tugas lebih baik dijalankan pada chip grafis tradisional, sementara yang lain membutuhkan peralatan yang lebih canggih.
Pembelian Groq oleh Nvidia bulan Desember lalu seharga $20 miliar menunjukkan bagaimana hal ini berkembang. Groq membangun chip yang dilengkapi dengan memori SRAM cepat yang dapat memproses respons AI lebih cepat daripada chip grafis standar. Tetapi perusahaan kesulitan untuk meningkatkan skala karena chip-nya memiliki daya komputasi terbatas dan dibangun dengan teknologi yang lebih lama.
Nvidia menyelesaikan masalah ini dengan membagi pekerjaan. Mereka menggunakan chip grafis reguler untuk bagian berat dari proses menghasilkan respons AI, yang disebut prefill, sementara menggunakan chip Groq untuk langkah decode yang lebih cepat yang membutuhkan lebih sedikit daya komputasi tetapi memerlukan akses data yang cepat.
Perusahaan besar lainnya melakukan hal serupa. Amazon Web Services mengumumkan sistem split mereka sendiri tak lama setelah konferensi teknologi besar. Mereka menggabungkan chip Trainium kustom mereka untuk pekerjaan prefill dengan chip sebesar wafer dari Cerebras untuk operasi decode.
Intel juga bergabung, mengungkapkan rencana untuk memadukan chip grafis dengan prosesor dari startup lain bernama SambaNova. Chip grafis akan menangani prefill sementara chip SambaNova menangani decode.
Sebagian besar perusahaan chip kecil telah menemukan keberhasilan dengan pekerjaan decode. Memori SRAM tidak menyimpan banyak informasi, tetapi sangat cepat. Dengan cukup banyak chip, atau satu chip besar seperti yang dibuat Cerebras, sistem ini unggul dalam tugas decode. Tetapi perusahaan tidak berhenti di situ.
Teknologi Baru Tantang Pendekatan Split-Chip
Lumai, startup lain, mengumumkan minggu ini bahwa mereka membangun chip yang menggunakan cahaya alih-alih listrik untuk operasi matematika di inti pekerjaan AI. Pendekatan ini menggunakan daya jauh lebih sedikit daripada chip tradisional.
Perusahaan memperkirakan sistem Iris Tetra yang akan datang akan memberikan performa AI sebesar exaOPS sambil hanya menggunakan 10 kilowatt daya pada tahun 2029.
Chip ini menggabungkan komponen berbasis cahaya dan listrik, tetapi cahaya menangani sebagian besar pekerjaan selama inferensi. Lumai berencana menggunakan chip ini pertama kali sebagai pengganti standalone untuk chip grafis dalam pekerjaan batch processing. Nanti, perusahaan ingin menggunakannya juga untuk pekerjaan prefill.
Tidak semua orang berpikir bahwa membagi pekerjaan antara chip yang berbeda masuk akal. Tenstorrent meluncurkan sistem Galaxy Blackhole minggu ini, dan CEO Jim Keller mengkritik pendekatan tersebut.
“Setiap perusahaan di industri ini berpasangan untuk membangun akselerator akselerator akselerator. CPU menjalankan kode. GPU mempercepat CPU. TPU mempercepat GPU. LPU mempercepat TPU. Dan seterusnya. Ini menghasilkan solusi yang kompleks yang kecil kemungkinannya kompatibel dengan perubahan dalam model dan penggunaan AI. Di Tenstorrent, kami berpikir sesuatu yang lebih umum dan sederhana akan lebih berhasil,” kata Keller.
Para pakar crypto paling cerdas sudah membaca newsletter kami. Ingin bergabung? Bergabunglah dengan mereka.