Google mengembangkan «analog Pied Piper» untuk percepatan delapan kali lipat perhitungan dalam jaringan saraf - ForkLog: cryptocurrency, AI, singularitas, masa depan

robot
Pembuatan abstrak sedang berlangsung

Google 2025# Google mengembangkan “analog Pied Piper” untuk mempercepat perhitungan dalam neural network delapan kali lipat

Divisi riset Google memperkenalkan TurboQuant — algoritma kompresi memori untuk kecerdasan buatan. Pengguna membandingkan pengembangan ini dengan teknologi startup Pied Piper dari serial “Silicon Valley”.

TurboQuant adalah Pied Piper yang baru 🤣 pic.twitter.com/iMAYJs02zt

— Justin Trimble (@justintrimble) 25 Maret 2026

TurboQuant secara signifikan mengurangi kebutuhan sumber daya untuk menjalankan model bahasa besar dan sistem pencarian vektor

Kecerdasan buatan mengoperasikan array multidimensi yang kompleks, menyimpan informasi tentang kata atau gambar. Data ini memakan banyak ruang di cache dan memperlambat pembuatan jawaban. Metode kompresi tradisional memerlukan penyimpanan variabel tambahan, yang sering kali mengurangi manfaat dari optimisasi.

TurboQuant mengatasi masalah pemborosan memori dengan dua mekanisme. Algoritma pertama mengubah vektor ke sistem koordinat polar dan mengompresi volume data utama. Yang kedua berfungsi sebagai pengontrol matematis, menggunakan hanya satu bit memori untuk menghilangkan kesalahan tersembunyi yang tersisa.

CEO Cloudflare, Matthew Prince, membandingkan algoritma ini dengan pencapaian model China DeepSeek, yang sebelumnya menunjukkan efisiensi tinggi dengan biaya perangkat keras minimal.

Ini adalah DeepSeek dari Google. Masih banyak ruang untuk mengoptimalkan inferensi AI dari segi kecepatan, penggunaan memori, konsumsi daya, dan pemanfaatan multi-penyewa. Banyak tim di @Cloudflare fokus pada area ini. #staytuned https://t.co/hHoY4sLT2I

— Matthew Prince 🌥 (@eastdakota) 25 Maret 2026

Pengembang menguji teknologi ini pada model terbuka Llama, Gemma, dan Mistral. Algoritma ini mengompresi cache hingga tiga bit tanpa kehilangan kualitas jawaban. Penggunaan memori berkurang minimal enam kali lipat, dan kecepatan perhitungan di akselerator grafis H100 meningkat delapan kali lipat.

Inovasi ini tidak memerlukan pelatihan ulang neural network. Menurut perusahaan, teknologi ini akan diintegrasikan ke dalam algoritma pencarian dan produk AI mereka sendiri, termasuk Gemini. Presentasi publik proyek ini akan dilakukan di konferensi terkait ICLR dan AISTATS pada tahun 2026.

Perlu diingat, pada 25 Maret Google mengungkapkan rencana mereka untuk beralih ke kriptografi pasca-kuantum.

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
Tambahkan komentar
Tambahkan komentar
Tidak ada komentar
  • Sematkan