Dasar
Spot
Perdagangkan kripto dengan bebas
Perdagangan Margin
Perbesar keuntungan Anda dengan leverage
Konversi & Investasi Otomatis
0 Fees
Perdagangkan dalam ukuran berapa pun tanpa biaya dan tanpa slippage
ETF
Dapatkan eksposur ke posisi leverage dengan mudah
Perdagangan Pre-Market
Perdagangkan token baru sebelum listing
Futures
Akses ribuan kontrak perpetual
TradFi
Emas
Satu platform aset tradisional global
Opsi
Hot
Perdagangkan Opsi Vanilla ala Eropa
Akun Terpadu
Memaksimalkan efisiensi modal Anda
Perdagangan Demo
Pengantar tentang Perdagangan Futures
Bersiap untuk perdagangan futures Anda
Acara Futures
Gabung acara & dapatkan hadiah
Perdagangan Demo
Gunakan dana virtual untuk merasakan perdagangan bebas risiko
Peluncuran
CandyDrop
Koleksi permen untuk mendapatkan airdrop
Launchpool
Staking cepat, dapatkan token baru yang potensial
HODLer Airdrop
Pegang GT dan dapatkan airdrop besar secara gratis
Launchpad
Jadi yang pertama untuk proyek token besar berikutnya
Poin Alpha
Perdagangkan aset on-chain, raih airdrop
Poin Futures
Dapatkan poin futures dan klaim hadiah airdrop
Investasi
Simple Earn
Dapatkan bunga dengan token yang menganggur
Investasi Otomatis
Investasi otomatis secara teratur
Investasi Ganda
Keuntungan dari volatilitas pasar
Soft Staking
Dapatkan hadiah dengan staking fleksibel
Pinjaman Kripto
0 Fees
Menjaminkan satu kripto untuk meminjam kripto lainnya
Pusat Peminjaman
Hub Peminjaman Terpadu
VS Code Sekarang Memungkinkan Anda Menggunakan Model AI Lokal Melalui Ollama
Headline
VS Code Menambahkan Dukungan Ollama, Memungkinkan Pengembang Memilih Model AI Lokal atau Cloud di Copilot
Summary
Microsoft menambahkan dukungan Ollama langsung ke dalam VS Code melalui GitHub Copilot. Ollama adalah alat sumber terbuka yang menjalankan model bahasa besar di mesin Anda sendiri atau server yang Anda kendalikan. Sekarang Anda dapat memilih model yang dihosting oleh Ollama dari pemilih model Copilot dan menggunakannya untuk bantuan kode. Ini memungkinkan pengembang bekerja dengan AI tanpa mengirim kode ke layanan cloud eksternal. Anda dapat menjalankan model seperti Llama3 atau DeepSeek secara offline, mendapatkan respons yang lebih cepat karena semuanya berjalan secara lokal, dan menghindari biaya API cloud.
Analysis
Ini menghubungkan GitHub Copilot—yang biasanya menggunakan GPT atau Claude melalui cloud Microsoft—ke model sumber terbuka apa pun yang ingin Anda jalankan sendiri. Bagi pengembang yang tidak dapat atau tidak mau mengirim kode proprietary ke server eksternal, itu adalah perubahan yang berarti.
Waktu peluncurannya masuk akal. Perangkat keras konsumen telah cukup baik untuk menjalankan model yang berguna secara lokal, dan ada semakin banyak pengembang yang lebih memilih alat sumber terbuka yang dapat mereka periksa dan modifikasi. Dengan mendukung Ollama, Microsoft menjaga pengguna ini tetap berada di VS Code daripada mendorong mereka ke alternatif lain.
Ada juga sudut pandang bisnis yang jelas: perusahaan yang khawatir tentang data yang meninggalkan jaringan mereka sekarang memiliki lebih sedikit alasan untuk menghindari Copilot sepenuhnya. Mereka dapat memulai dengan model lokal dan menambahkan opsi cloud nanti untuk tugas yang membutuhkan lebih banyak komputasi.
Beberapa pengguna awal melaporkan masalah pengaturan—tidak ada yang besar, tetapi cukup ada gesekan yang mungkin memperlambat adopsi awal. Integrasinya bekerja setelah Anda mengaturnya, tetapi proses masuknya bisa lebih lancar.
Dampak yang lebih luas adalah bahwa pengembangan model sumber terbuka mendapatkan dorongan. Ketika alat yang digunakan oleh jutaan pengembang dapat dengan mudah terhubung ke model yang dibangun oleh komunitas, lebih banyak orang akan benar-benar mencobanya. Itu baik untuk ekosistem model terbuka terlepas dari apa pun yang Anda pikirkan tentang motif Microsoft.
Impact Assessment