Rakuten công bố "mô hình AI hiệu suất cao lớn nhất Nhật Bản", hồ sơ cấu hình cho thấy dựa trên kiến trúc DeepSeek V3

robot
Đang tạo bản tóm tắt

Odaily Planet Daily đưa tin, Tập đoàn Rakuten đã phát hành mô hình mã nguồn mở Rakuten AI 3.0, gọi đây là “mô hình AI hiệu suất cao lớn nhất Nhật Bản”. Mô hình này sử dụng kiến trúc MoE, tổng số tham số là 6710 tỷ, mỗi lần suy luận kích hoạt 370 tỷ tham số, cửa sổ ngữ cảnh là 128K, được tối ưu hóa cho các tình huống tiếng Nhật, và thể hiện vượt trội so với GPT-4o trong nhiều bài kiểm tra chuẩn tiếng Nhật.

Mô hình này là một trong những thành quả của dự án GENIAC do Bộ Kinh tế, Thương mại và Công nghiệp Nhật Bản phối hợp với Cơ quan Phát triển Công nghệ Năng lượng Mới (NEDO) thúc đẩy, nhận được một phần hỗ trợ về sức mạnh tính toán. Rakuten chưa tiết lộ nguồn gốc của mô hình cơ sở, chỉ cho biết được xây dựng dựa trên thành quả của cộng đồng mã nguồn mở.

Cộng đồng đã phát hiện trong các tệp mô hình trên HuggingFace, tệp config.json chứa các trường “deepseek_v3” và các kiến trúc liên quan, cùng với quy mô tham số và cấu hình ngữ cảnh phù hợp với DeepSeek V3, cho thấy mô hình này hoặc dựa trên DeepSeek V3 để tinh chỉnh cho tiếng Nhật.

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
Thêm một bình luận
Thêm một bình luận
Không có bình luận
  • Gate Fun hot

    Xem thêm
  • Vốn hóa:$2.46KNgười nắm giữ:1
    0.00%
  • Vốn hóa:$2.45KNgười nắm giữ:1
    0.00%
  • Vốn hóa:$0.1Người nắm giữ:1
    0.00%
  • Vốn hóa:$2.45KNgười nắm giữ:1
    0.00%
  • Vốn hóa:$2.5KNgười nắm giữ:2
    0.00%
  • Ghim