Cambricon menyelesaikan adaptasi DeepSeek-V4, kode telah dirilis sebagai sumber terbuka, mendorong kenaikan saham chip domestik

robot
Pembuatan abstrak sedang berlangsung

Menurut pemantauan Beating, Cambricon mengumumkan bahwa mereka telah menyelesaikan adaptasi untuk dua model, DeepSeek-V4-Flash 285B dan DeepSeek-V4-Pro 1.6T, pada hari peluncuran V4, berbasis kerangka inferensi vLLM, dan kode adaptasi telah dipublikasikan di GitHub.

Kecepatan adaptasi bergantung pada dua prasyarat: pertama, rangkaian perangkat lunak NeuWARE buatan sendiri dari Cambricon mendukung secara native kerangka kerja utama seperti PyTorch dan vLLM, sehingga model dapat dengan cepat dipindahkan; kedua, chip Cambricon mendukung secara native format data presisi rendah utama, tanpa perlu konversi format tambahan untuk verifikasi presisi. Untuk struktur baru V4, Cambricon melalui perpustakaan operator integrasi buatan sendiri Torch-MLU-Ops melakukan akselerasi khusus pada modul seperti Compressor dan mHC, serta menggunakan BangC untuk menulis kernel operator hotspot seperti Attention sparse/terkompresi dan GroupGemm.

Di tingkat kerangka inferensi, Cambricon mendukung paralel campuran lima dimensi TP/PP/SP/DP/EP, paralel komunikasi-komputasi, kuantisasi presisi rendah, dan deployment PD terpisah di vLLM. Laporan teknologi V4 hanya menyebutkan verifikasi di GPU NVIDIA dan NPU Huawei Ascend, tanpa menyebutkan platform Cambricon, dan adaptasi kali ini dilakukan secara mandiri oleh Cambricon. Terinspirasi oleh pengumuman peluncuran V4, sektor chip domestik A-share menguat, dan saham Cambricon melonjak tajam selama perdagangan.

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
Tambahkan komentar
Tambahkan komentar
Tidak ada komentar
  • Sematkan