Deepfake dùng nhiều phim khiêu dâm để huấn luyện AI: nhưng pháp luật chỉ bảo vệ khuôn mặt, chưa từng ai quan tâm đó là thân thể của ai?

Thảo luận về deepfake AI trong phim người lớn lâu nay tập trung vào khuôn mặt bị ghép, nhưng bỏ qua thân thể thuộc về ai; hơn 10.000 TB nội dung người lớn có thể đã được sử dụng để huấn luyện mô hình nudify.
(Tiền đề: Nghiên cứu của Đại học California về hiện tượng “AI mờ mịt”: 14% nhân viên văn phòng bị Agent và tự động hóa làm điên, ý định nghỉ việc cao tới 40%)
(Bổ sung nền: Tin nóng》Huang Renxun cuối cùng đã lên máy bay Không lực Một để “đồng hành cùng Trump thăm Trung Quốc”, xuất khẩu chip NVIDIA trở thành tâm điểm)

Mục lục bài viết

Toggle

  • Thân thể làm dữ liệu huấn luyện
  • Thời đại hợp đồng bị lệch lạc
  • Phản biện của Take It Down Act

Mỗi khi ai đó bàn về deepfake AI trong phim người lớn, hầu như đều tập trung vào khuôn mặt, vào khuôn mặt được ghép vào, làm những việc cô ấy chưa từng làm. Nhưng có một vấn đề khác gần như không ai đề cập: đó là thân thể thuộc về ai?

Theo báo cáo của 《technologyreview》, Jennifer, 37 tuổi, nhà trị liệu tâm lý hành nghề tại New York, đã dùng phần mềm nhận diện khuôn mặt để tìm kiếm video người lớn của chính mình từ mười năm trước, kết quả là tìm thấy một video cô chưa từng xem: thân thể của cô, đã được thay bằng khuôn mặt của người khác.

Cô nhận ra cảnh quay đó là từ năm 2013, rồi mới nhận thức ra: “Có người đã dùng thân thể của tôi để làm deepfake.”

Thân thể làm dữ liệu huấn luyện

Thuật ngữ deepfake ra đời vào tháng 11 năm 2017, người dùng Reddit tên “deepfakes” đã ghép mặt các người nổi tiếng vào thân thể diễn viên người lớn. Từ đó, thân thể của các nhà sáng tạo nội dung người lớn trở thành nguồn dữ liệu bị trộm cắp phổ biến nhất, tình trạng này “liên tục xảy ra”, theo luật sư chuyên về ngành công nghiệp người lớn Corey Silverstein nói.

Nhưng tính chất vấn đề đã thay đổi. Thân thể của diễn viên người lớn không còn chỉ bị lấy để làm các video riêng lẻ nữa, mà còn trở thành dữ liệu huấn luyện, dạy AI cách tạo ra “hình ảnh khỏa thân chân thực”, cách di chuyển, cách trông thật. Quá trình này không có sự đồng ý rõ ràng, gần như không thể truy vết.

Mô hình kinh doanh của ứng dụng “nudify” dựa trên nền tảng này: chỉ cần tải lên một bức ảnh mặc quần áo, có thể nhận được một bức ảnh khỏa thân giả mạo. Các ứng dụng này gần như chắc chắn đã sử dụng hơn 10.000 TB nội dung người lớn trực tuyến làm nguồn huấn luyện, khiến các nhà sáng tạo gần như không có cách nào đòi quyền lợi.

Chuyên gia nhận diện kỹ thuật số của UC Berkeley, Hany Farid, nói: “Đây đều là các hộp đen.” Nhưng với mức độ phổ biến của nội dung người lớn trên mạng, việc sử dụng chúng để huấn luyện AI là “giả định hợp lý.”

Vấn đề còn không chỉ dừng lại ở dữ liệu huấn luyện. AI đã có thể hoàn chỉnh tái tạo diện mạo và giọng nói của diễn viên người lớn. Nhà sáng tạo Tanya Tate gần đây biết rằng, một fan hâm mộ nổi tiếng đã bỏ ra 20.000 USD để trò chuyện tình dục với một phiên bản AI của cô ấy, đó là do kẻ lừa đảo tạo ra. Sau nhiều vụ lừa đảo, các fan bắt đầu cáo buộc Tate và lan truyền những thông tin sai lệch.

Công ty thực thi bản quyền Takedown Piracy sử dụng công nghệ dấu vân tay kỹ thuật số đã gỡ khỏi Google 1,3 tỷ video vi phạm bản quyền, ngay cả khi video bị chỉnh sửa hoặc khuôn mặt bị thay thế, dấu vân tay kỹ thuật số vẫn có thể nhận diện được nguyên bản.

Thời đại hợp đồng bị lệch lạc

Nhiều diễn viên người lớn đã ký hợp đồng từ nhiều năm trước, bao gồm điều khoản “nhà xuất bản có thể sử dụng bất kỳ công nghệ nào hiện có hoặc sẽ phát hiện trong tương lai.” Thời đó, người ta tưởng tượng là VHS chuyển sang DVD.

Không ai dự đoán được rằng “công nghệ trong tương lai” lại có nghĩa là: dùng nội dung của bạn để huấn luyện AI, tạo ra một bản sao tổng hợp có thể thay thế bạn trong công việc. Tiến sĩ khoa học máy tính của MIT, Stephen Casper, chỉ ra rằng, các diễn viên đã bắt đầu sáng tạo trước khi AI xuất hiện, không thể đồng ý trước về mục đích sử dụng AI; những rủi ro này là “bị áp đặt theo cách truy nguyên”, Jennifer mô tả.

Khả năng lừa đảo của AI cũng đang tăng tốc. Nghiên cứu của Farid năm 2025 phát hiện, tỷ lệ chính xác của người thử nhận diện giọng nói do AI tạo ra chỉ khoảng 60%, không cao hơn nhiều so với đoán mò.

Phản biện của Take It Down Act

Luật liên bang duy nhất của Mỹ hiện nay về deepfake là Take It Down Act, yêu cầu các trang web gỡ bỏ hình ảnh thân mật không tự nguyện (NCII) trong vòng 48 giờ. Mục đích của luật là bảo vệ nạn nhân, nhưng có thể phản tác dụng.

Giáo sư luật của Đại học Santa Clara, Eric Goldman, chỉ ra rằng, bất kỳ ai cũng có thể báo cáo nội dung người lớn hợp pháp, có sự đồng ý của các bên, là NCII, buộc các nền tảng phải gỡ xuống. Điều này biến luật thành công cụ xóa bỏ tiềm năng, phù hợp với mục tiêu của Dự án 2025 nhằm loại bỏ nội dung người lớn khỏi mạng.

Luật pháp Mỹ hiện không coi các hành vi vi phạm này là xâm phạm quyền riêng tư, vì “chúng ta không biết phải đổ trách nhiệm cho ai”, Goldman nói. EU, Anh, Úc đã tuyên bố hạn chế ứng dụng nudify, nhưng khi các ứng dụng này bị gỡ xuống, thường lại xuất hiện dưới tên khác.

Reba Rocket nói: “Các cô gái AI có thể làm bất cứ điều gì bạn muốn, chúng không nói không. Điều này làm tôi sợ, đặc biệt là khi họ dùng người thật để huấn luyện các mô hình đó. Và một khi đã lên mạng, thì mãi mãi ở đó.”

TRUMP-1,01%
NVDA13,58%
TAKE2,59%
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
Thêm một bình luận
Thêm một bình luận
Không có bình luận
  • Đã ghim