Cháy sân NeurIPS! SentientAGI đã mang "mã chống giả" của mô hình lớn vào hội trường chính, 24.000 dấu vân tay hàn chết mô hình vẫn không gặp sự cố.
@SentientAGI của OML 1.0 đã trực tiếp tiến vào track bài báo chính của hội nghị NeurIPS - không phải là poster để làm cho có, cũng không phải là workshop bên lề, mà là track chính đàng hoàng! Động thái này đã đưa kỹ thuật "gán nhãn" cho các mô hình lớn lên một tầm cao mới.
Nói đơn giản, bài báo của họ "Scalable Fingerprinting for LLMs" làm việc là gán "hình xăm chống giả" cho các mô hình lớn, và gán tới hàng chục nghìn cái, mà không thể gỡ bỏ! Những giải pháp dấu vân tay mô hình trước đây giống như giấy dán kém chất lượng: chỉ cần nhúng vài khóa là bắt đầu "lẫn lộn", hiệu suất mô hình giảm mạnh, chỉ cần rửa qua vài lần là biến mất, việc sử dụng mô hình mã nguồn mở càng tồi tệ hơn. Nhưng OML 1.0 đã chơi một trò mới - sử dụng "Perinucleus Sampling (nghịch hạt nhân mẫu)" để nhét dấu vân tay vào "khu vực biên" của mô hình, không ảnh hưởng đến đầu ra của mô hình, nhưng có thể giữ hàng ngàn "mật mã xác thực" ổn định, thật tuyệt vời!
Điều đáng kinh ngạc hơn là họ đã cứng nhắc nhúng 24576 dấu vân tay vào Llama-3.1-8B, mà hiệu suất mô hình hầu như không thay đổi! Cho dù bạn có thực hiện SFT cho mô hình, làm chưng cất, thậm chí kết hợp vài mô hình lại với nhau để "lai tạo", thì những dấu vân tay này vẫn ổn như chó già, không thể nào loại bỏ được.
✅ Chân giả chỉ cần tra là biết, không còn sợ "mô hình Lý Quỷ" nữa. ✅ Giấu kín kẽ, khi sử dụng hoàn toàn không cảm thấy. ✅ Hiệu suất không bị suy giảm, mô hình vẫn mạnh mẽ như trước. ✅ Muốn nhúng bao nhiêu thì nhúng bấy nhiêu, quy mô hóa trực tiếp kéo đầy đủ
Đây đâu phải là đổi mới công nghệ, thật sự là mở ra một "con đường thông thiên" cho việc thương mại hóa các mô hình mã nguồn mở - sau này mô hình thuộc về ai, có bị chỉnh sửa hay không, chỉ cần nhìn một cái "hình xăm vô hình" là biết, quá đã!
@SentientAGI
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
Cháy sân NeurIPS! SentientAGI đã mang "mã chống giả" của mô hình lớn vào hội trường chính, 24.000 dấu vân tay hàn chết mô hình vẫn không gặp sự cố.
@SentientAGI của OML 1.0 đã trực tiếp tiến vào track bài báo chính của hội nghị NeurIPS - không phải là poster để làm cho có, cũng không phải là workshop bên lề, mà là track chính đàng hoàng! Động thái này đã đưa kỹ thuật "gán nhãn" cho các mô hình lớn lên một tầm cao mới.
Nói đơn giản, bài báo của họ "Scalable Fingerprinting for LLMs" làm việc là gán "hình xăm chống giả" cho các mô hình lớn, và gán tới hàng chục nghìn cái, mà không thể gỡ bỏ! Những giải pháp dấu vân tay mô hình trước đây giống như giấy dán kém chất lượng: chỉ cần nhúng vài khóa là bắt đầu "lẫn lộn", hiệu suất mô hình giảm mạnh, chỉ cần rửa qua vài lần là biến mất, việc sử dụng mô hình mã nguồn mở càng tồi tệ hơn. Nhưng OML 1.0 đã chơi một trò mới - sử dụng "Perinucleus Sampling (nghịch hạt nhân mẫu)" để nhét dấu vân tay vào "khu vực biên" của mô hình, không ảnh hưởng đến đầu ra của mô hình, nhưng có thể giữ hàng ngàn "mật mã xác thực" ổn định, thật tuyệt vời!
Điều đáng kinh ngạc hơn là họ đã cứng nhắc nhúng 24576 dấu vân tay vào Llama-3.1-8B, mà hiệu suất mô hình hầu như không thay đổi! Cho dù bạn có thực hiện SFT cho mô hình, làm chưng cất, thậm chí kết hợp vài mô hình lại với nhau để "lai tạo", thì những dấu vân tay này vẫn ổn như chó già, không thể nào loại bỏ được.
✅ Chân giả chỉ cần tra là biết, không còn sợ "mô hình Lý Quỷ" nữa.
✅ Giấu kín kẽ, khi sử dụng hoàn toàn không cảm thấy.
✅ Hiệu suất không bị suy giảm, mô hình vẫn mạnh mẽ như trước.
✅ Muốn nhúng bao nhiêu thì nhúng bấy nhiêu, quy mô hóa trực tiếp kéo đầy đủ
Đây đâu phải là đổi mới công nghệ, thật sự là mở ra một "con đường thông thiên" cho việc thương mại hóa các mô hình mã nguồn mở - sau này mô hình thuộc về ai, có bị chỉnh sửa hay không, chỉ cần nhìn một cái "hình xăm vô hình" là biết, quá đã!
@SentientAGI