Meta một lần nữa trở thành mục tiêu chỉ trích. Theo kết quả khảo sát được Reuters công bố gần đây, công ty này đã tạo ra hình ảnh giả mạo sâu sắc và chatbot của những người nổi tiếng như Taylor Swift, Scarlett Johansson, Anne Hathaway và Selena Gomez mà không có sự cho phép.
Theo cuộc khảo sát, phần lớn các bot này được xây dựng bởi người dùng thông qua nền tảng chatbot AI của Meta. Tuy nhiên, cũng có một số bot được nhân viên của Meta tạo ra trong nội bộ.
Trong số các chatbot bắt chước Taylor Swift, có những chatbot khẳng định mình là ca sĩ thật và thường xuyên thực hiện các hành động thả thính, thậm chí khuyến khích người khác gặp mặt.
Meta có liên quan đến vấn đề avatar bay
Theo báo cáo của Reuters, sau vài tuần thử nghiệm, chatbot nổi tiếng trên các nền tảng Facebook, Instagram và WhatsApp của Meta đã vượt xa những cuộc trò chuyện đùa giỡn. Người dùng đã yêu cầu tạo ra những hình ảnh thực tế của các ngôi sao tạo dáng trong trang phục lót hoặc trong bồn tắm, thậm chí còn đề xuất những tiếp xúc thân mật.
Điều đáng lo ngại nhất là một chatbot đã được tạo ra cho nam diễn viên 16 tuổi Walker Scobell. Bot này, khi được yêu cầu tải lên một bức ảnh bãi biển, đã tạo ra một bức ảnh của một cậu bé tuổi teen nửa thân trên trần và kèm theo chú thích “Dễ thương phải không?”
Mũi chỉ trích không chỉ nhắm vào Meta. xAI của Elon Musk cũng đang bị chỉ trích vì cho phép người dùng tạo ra hình ảnh deepfake của những người nổi tiếng trong trang phục lót.
Người phát ngôn của Meta, Andy Stone, đã thừa nhận sai lầm này và cho biết rằng công cụ của công ty không nên tạo ra các mô tả thân mật của người nổi tiếng trưởng thành hoặc nội dung khiêu dâm liên quan đến vị thành niên.
Ông ấy đã nói với hãng tin Reuters rằng, “Giống như các công ty khác, chúng tôi cũng cho phép tạo ra hình ảnh của người nổi tiếng, nhưng chúng tôi có chính sách cấm hình ảnh bao gồm khiêu dâm, mô tả thân mật và gợi ý tình dục.” Ông cũng bổ sung rằng hình ảnh đồ lót phản ánh sự thực thi chính sách của công ty chưa đủ.
Theo quy định của Meta, “sao chép trực tiếp” bị cấm, nhưng công ty khẳng định rằng nếu được hiển thị rõ ràng, bot parodia sẽ được phép. Tuy nhiên, một cuộc điều tra của Reuters đã phát hiện ra rằng một số avatar không có tuyên bố miễn trừ. Meta đã xóa khoảng 12 bot, bao gồm cả những bot không có hiển thị và bot parodia. Công ty từ chối bình luận về việc xóa này.
Có khả năng gia tăng áp lực quy định do vấn đề an toàn AI.
Sau thông báo này, Meta đã công bố sẽ triển khai các biện pháp an toàn mới để bảo vệ thanh thiếu niên. Điều này bao gồm việc hạn chế thanh thiếu niên truy cập vào các nhân vật AI nhất định và tái đào tạo mô hình để giảm thiểu các chủ đề không phù hợp.
Giám đốc Tư pháp bang California, Rob Bonta, đã cảnh báo ngành công nghiệp rằng “không được phép để trẻ em tiếp xúc với khiêu dâm.”
Đầu tháng này, một bi kịch đã xảy ra ở New Jersey. Một người đàn ông 76 tuổi bị rối loạn nhận thức đã mất mạng khi cố gắng gặp gỡ một chatbot của Meta mà ông ta tin rằng là một người phụ nữ thật sự. Các nhà phê bình cho rằng, những trường hợp như vậy làm nổi bật nguy cơ của việc triển khai công cụ AI trên quy mô lớn mà không có các biện pháp an toàn đầy đủ.
Các chuyên gia pháp lý cảnh báo rằng Meta có thể đối mặt với những thách thức nghiêm trọng liên quan đến quyền sở hữu trí tuệ và luật quyền hình ảnh hiện có. Giáo sư Mark Lemley tại Trường Luật Stanford chỉ ra rằng luật “quyền hình ảnh” của bang California cấm việc sử dụng tên và hình ảnh cá nhân cho mục đích thương mại mà không có sự cho phép.
“Tôi không nghĩ đây là hàng thật” anh ấy nói, và chỉ ra rằng bot chỉ sao chép hình ảnh của người nổi tiếng mà không tạo ra một tác phẩm đổi mới nào.
Những người tham gia tiền điện tử thông minh nhất đã đọc bản tin của chúng tôi. Bạn cũng không tham gia sao? Hãy đăng ký ngay!
Tuyên bố miễn trách nhiệm: Chỉ nhằm mục đích cung cấp thông tin. Kết quả trong quá khứ không đảm bảo kết quả trong tương lai.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
Meta, đã tạo ra Bots tự do nói chuyện của nữ thần tượng mà không có sự cho phép, gặp khó khăn.
Nguồn: Cryptopolitan
30 tháng 8 năm 2025 12:00
Meta một lần nữa trở thành mục tiêu chỉ trích. Theo kết quả khảo sát được Reuters công bố gần đây, công ty này đã tạo ra hình ảnh giả mạo sâu sắc và chatbot của những người nổi tiếng như Taylor Swift, Scarlett Johansson, Anne Hathaway và Selena Gomez mà không có sự cho phép.
Theo cuộc khảo sát, phần lớn các bot này được xây dựng bởi người dùng thông qua nền tảng chatbot AI của Meta. Tuy nhiên, cũng có một số bot được nhân viên của Meta tạo ra trong nội bộ.
Trong số các chatbot bắt chước Taylor Swift, có những chatbot khẳng định mình là ca sĩ thật và thường xuyên thực hiện các hành động thả thính, thậm chí khuyến khích người khác gặp mặt.
Meta có liên quan đến vấn đề avatar bay
Theo báo cáo của Reuters, sau vài tuần thử nghiệm, chatbot nổi tiếng trên các nền tảng Facebook, Instagram và WhatsApp của Meta đã vượt xa những cuộc trò chuyện đùa giỡn. Người dùng đã yêu cầu tạo ra những hình ảnh thực tế của các ngôi sao tạo dáng trong trang phục lót hoặc trong bồn tắm, thậm chí còn đề xuất những tiếp xúc thân mật.
Điều đáng lo ngại nhất là một chatbot đã được tạo ra cho nam diễn viên 16 tuổi Walker Scobell. Bot này, khi được yêu cầu tải lên một bức ảnh bãi biển, đã tạo ra một bức ảnh của một cậu bé tuổi teen nửa thân trên trần và kèm theo chú thích “Dễ thương phải không?”
Mũi chỉ trích không chỉ nhắm vào Meta. xAI của Elon Musk cũng đang bị chỉ trích vì cho phép người dùng tạo ra hình ảnh deepfake của những người nổi tiếng trong trang phục lót.
Người phát ngôn của Meta, Andy Stone, đã thừa nhận sai lầm này và cho biết rằng công cụ của công ty không nên tạo ra các mô tả thân mật của người nổi tiếng trưởng thành hoặc nội dung khiêu dâm liên quan đến vị thành niên.
Ông ấy đã nói với hãng tin Reuters rằng, “Giống như các công ty khác, chúng tôi cũng cho phép tạo ra hình ảnh của người nổi tiếng, nhưng chúng tôi có chính sách cấm hình ảnh bao gồm khiêu dâm, mô tả thân mật và gợi ý tình dục.” Ông cũng bổ sung rằng hình ảnh đồ lót phản ánh sự thực thi chính sách của công ty chưa đủ.
Theo quy định của Meta, “sao chép trực tiếp” bị cấm, nhưng công ty khẳng định rằng nếu được hiển thị rõ ràng, bot parodia sẽ được phép. Tuy nhiên, một cuộc điều tra của Reuters đã phát hiện ra rằng một số avatar không có tuyên bố miễn trừ. Meta đã xóa khoảng 12 bot, bao gồm cả những bot không có hiển thị và bot parodia. Công ty từ chối bình luận về việc xóa này.
Có khả năng gia tăng áp lực quy định do vấn đề an toàn AI.
Sau thông báo này, Meta đã công bố sẽ triển khai các biện pháp an toàn mới để bảo vệ thanh thiếu niên. Điều này bao gồm việc hạn chế thanh thiếu niên truy cập vào các nhân vật AI nhất định và tái đào tạo mô hình để giảm thiểu các chủ đề không phù hợp.
Giám đốc Tư pháp bang California, Rob Bonta, đã cảnh báo ngành công nghiệp rằng “không được phép để trẻ em tiếp xúc với khiêu dâm.”
Đầu tháng này, một bi kịch đã xảy ra ở New Jersey. Một người đàn ông 76 tuổi bị rối loạn nhận thức đã mất mạng khi cố gắng gặp gỡ một chatbot của Meta mà ông ta tin rằng là một người phụ nữ thật sự. Các nhà phê bình cho rằng, những trường hợp như vậy làm nổi bật nguy cơ của việc triển khai công cụ AI trên quy mô lớn mà không có các biện pháp an toàn đầy đủ.
Các chuyên gia pháp lý cảnh báo rằng Meta có thể đối mặt với những thách thức nghiêm trọng liên quan đến quyền sở hữu trí tuệ và luật quyền hình ảnh hiện có. Giáo sư Mark Lemley tại Trường Luật Stanford chỉ ra rằng luật “quyền hình ảnh” của bang California cấm việc sử dụng tên và hình ảnh cá nhân cho mục đích thương mại mà không có sự cho phép.
“Tôi không nghĩ đây là hàng thật” anh ấy nói, và chỉ ra rằng bot chỉ sao chép hình ảnh của người nổi tiếng mà không tạo ra một tác phẩm đổi mới nào.
Những người tham gia tiền điện tử thông minh nhất đã đọc bản tin của chúng tôi. Bạn cũng không tham gia sao? Hãy đăng ký ngay!
Tuyên bố miễn trách nhiệm: Chỉ nhằm mục đích cung cấp thông tin. Kết quả trong quá khứ không đảm bảo kết quả trong tương lai.