Dasar
Spot
Perdagangkan kripto dengan bebas
Perdagangan Margin
Perbesar keuntungan Anda dengan leverage
Konversi & Investasi Otomatis
0 Fees
Perdagangkan dalam ukuran berapa pun tanpa biaya dan tanpa slippage
ETF
Dapatkan eksposur ke posisi leverage dengan mudah
Perdagangan Pre-Market
Perdagangkan token baru sebelum listing
Futures
Akses ribuan kontrak perpetual
CFD
Emas
Satu platform aset tradisional global
Opsi
Hot
Perdagangkan Opsi Vanilla ala Eropa
Akun Terpadu
Memaksimalkan efisiensi modal Anda
Perdagangan Demo
Pengantar tentang Perdagangan Futures
Bersiap untuk perdagangan futures Anda
Acara Futures
Gabung acara & dapatkan hadiah
Perdagangan Demo
Gunakan dana virtual untuk merasakan perdagangan bebas risiko
Peluncuran
CandyDrop
Koleksi permen untuk mendapatkan airdrop
Launchpool
Staking cepat, dapatkan token baru yang potensial
HODLer Airdrop
Pegang GT dan dapatkan airdrop besar secara gratis
Pre-IPOs
Buka akses penuh ke IPO saham global
Poin Alpha
Perdagangkan aset on-chain, raih airdrop
Poin Futures
Dapatkan poin futures dan klaim hadiah airdrop
Investasi
Simple Earn
Dapatkan bunga dengan token yang menganggur
Investasi Otomatis
Investasi otomatis secara teratur
Investasi Ganda
Keuntungan dari volatilitas pasar
Soft Staking
Dapatkan hadiah dengan staking fleksibel
Pinjaman Kripto
0 Fees
Menjaminkan satu kripto untuk meminjam kripto lainnya
Pusat Peminjaman
Hub Peminjaman Terpadu
Promosi
AI
Gate AI
Partner AI serbaguna untuk Anda
Gate AI Bot
Gunakan Gate AI langsung di aplikasi sosial Anda
GateClaw
Gate Blue Lobster, langsung pakai
Gate for AI Agent
Infrastruktur AI, Gate MCP, Skills, dan CLI
Gate Skills Hub
10RB+ Skills
Dari kantor hingga trading, satu platform keterampilan membuat AI jadi lebih mudah digunakan
GateRouter
Pilih secara cerdas dari 40+ model AI, dengan 0% biaya tambahan
Tether meluncurkan AI medis di perangkat yang mengungguli model Google dalam pengujian tolok ukur
Kelompok Riset AI Tether telah merilis QVAC MedPsy-1.7B dan MedPsy-4B, model bahasa medis khusus teks yang dibangun untuk berjalan langsung di perangkat berdaya rendah seperti ponsel pintar dan perangkat wearable.
Menurut tim, model ini mengungguli beberapa sistem AI medis besar, termasuk milik Google, pada berbagai tolok ukur, dan tampil sebanding dengan sistem yang jauh lebih besar dalam tugas penalaran dan pengetahuan medis sambil mempertahankan eksekusi lokal penuh dan privasi.
Sistem AI tradisional di bidang kesehatan bergantung pada model yang dihosting di cloud besar, yang memerlukan data sensitif seperti catatan pasien dan input diagnostik untuk dikirim ke server eksternal, menciptakan risiko privasi dan kepatuhan. Arsitektur ini semakin mendapat tekanan karena sektor AI kesehatan diproyeksikan tumbuh dari sekitar $36 miliar saat ini menjadi lebih dari $500 miliar pada tahun 2033.
Tim Tether mengatakan bahwa QVAC MedPsy menantang paradigma skala dengan fokus pada efisiensi.
Model 1,7B ini ramah ponsel. Versi kecil ini mendapatkan skor 62,62 di tujuh tolok ukur medis standar, mengalahkan MedGemma-1.5-4B-it dari Google lebih dari 11 poin meskipun ukurannya kurang dari setengahnya, menurut para peneliti. Model ini juga mengungguli MedGemma 27B dalam tugas klinis dunia nyata seperti HealthBench Hard.
Versi 4B mencapai skor 70,54 pada pengujian yang sama, melampaui MedGemma-27B, sebuah model yang hampir tujuh kali lebih besar. Model ini menunjukkan performa yang kuat di HealthBench, HealthBench Hard, dan MedXpertQA.
Hasil ini mencakup delapan set tolok ukur termasuk MedQA, MedMCQA, MMLU Health, PubMedQA, AfriMedQA, MedXpertQA, dan HealthBench, yang didukung oleh pelatihan medis bertahap yang menggabungkan supervisi, data penalaran klinis yang dikurasi, dan pembelajaran penguatan.
Model-model ini tidak hanya cerdas tetapi juga sangat praktis, seperti yang dicatat oleh para peneliti. Mereka merespons dengan cepat dengan jawaban singkat tetapi tetap lengkap, menghemat waktu dan daya baterai. Mereka tersedia dalam format terkompresi yang mudah digunakan dan cocok untuk perangkat mobile tanpa kehilangan banyak kualitas.
Secara teknis, model 4B menghasilkan respons dalam sekitar 909 token, dibandingkan sekitar 2.953 untuk sistem sebanding, mengurangi output sebesar 3,2 kali. Model 1,7B rata-rata sekitar 1.110 token versus 1.901, mengurangi output sebesar 1,7 kali.
Kedua model dirilis dalam format GGUF yang dikuantisasi, dengan versi terkompresi berbobot sekitar 1,2 GB dan 2,6 GB masing-masing.
Model-model ini sekarang tersedia secara gratis di bawah lisensi terbuka di Hugging Face.