OpenAI đối mặt với vụ kiện về cáo buộc ChatGPT khuyến khích quá liều chết người của thiếu niên

###Tóm tắt ngắn gọn

  • Một vụ kiện được đệ trình tại tòa án bang California cáo buộc ChatGPT đã tư vấn cho một thiếu niên về việc pha trộn thuốc trước khi cậu ta gặp quá liều chết người.
  • Đơn kiện cáo buộc OpenAI đã làm yếu các biện pháp bảo vệ và ưu tiên sự tham gia của người dùng hơn là an toàn.
  • OpenAI cho biết phiên bản ChatGPT liên quan đã được cập nhật kể từ đó và không còn công khai nữa.

Gia đình của một sinh viên đại học 19 tuổi đã qua đời tại California đang kiện OpenAI và CEO Sam Altman, cáo buộc rằng ChatGPT đã khuyến khích sử dụng thuốc nguy hiểm và đề xuất các kết hợp chất gây ảnh hưởng đến quá liều chết người của thiếu niên. Vụ kiện, được đệ trình vào thứ Ba tại Tòa án Tối cao California ở Quận San Francisco, cáo buộc ChatGPT đã cung cấp cho Samuel Nelson lời khuyên về việc pha trộn các chất, bao gồm kratom và Xanax, đề xuất liều lượng và trấn an cậu trong các cuộc trò chuyện về việc sử dụng thuốc. Theo đơn kiện, chatbot đã chuyển từ việc từ chối thảo luận về việc sử dụng thuốc giải trí sang cung cấp hướng dẫn cá nhân sau khi OpenAI phát hành mô hình GPT-4o. Leila Turner-Scott, mẹ của Nelson, tin rằng con trai bà chủ yếu sử dụng ChatGPT để giúp làm bài tập về nhà và các nhiệm vụ năng suất trước khi chatbot bị cáo buộc bắt đầu tư vấn về việc sử dụng thuốc.

“Chatbot có khả năng dừng cuộc trò chuyện khi được yêu cầu hoặc khi được lập trình để làm vậy,” Turner-Scott nói với CBS News. “Và họ đã loại bỏ phần lập trình đó, và cho phép nó tiếp tục tư vấn về tự gây hại.”  Nelson, sinh viên tâm lý học tại Đại học California, Merced, đã chết do quá liều tai nạn vào tháng 5 năm 2025. Vụ kiện cáo buộc OpenAI thiết kế ChatGPT để tối đa hóa sự tham gia thông qua các tính năng bao gồm trí nhớ liên tục và phản hồi xác thực cảm xúc, trong khi chatbot đã trấn an Nelson về việc pha trộn các chất ức chế và đề xuất các cách tăng cường sử dụng thuốc trong khi giảm thiểu rủi ro. Vụ kiện cáo buộc OpenAI đã nới lỏng các biện pháp bảo vệ trong GPT-4o để tránh bị coi là “phán xét” hoặc “giảng đạo” khi người dùng thảo luận về hành vi nguy hiểm. Nó cũng thách thức các tính năng của AI hội thoại, bao gồm phản hồi cá nhân hóa, trí nhớ liên tục và các tương tác giống như con người.

Theo Dự án Luật Công lý Công nghệ, cùng với Trung tâm Luật Nạn nhân Mạng xã hội và Dự án Trách nhiệm và Cạnh tranh Công nghệ, đại diện cho gia đình, OpenAI đã được thông báo về vụ kiện và dự kiến sẽ có vụ kiện này. “Mục đích của các nguyên đơn là đòi bồi thường và yêu cầu chấn chỉnh, bao gồm yêu cầu thay đổi các thành phần thiết kế chính đã dẫn đến cái chết của Sam,” một phát ngôn viên của Dự án Luật Công lý Công nghệ nói với Decrypt. Vụ kiện này diễn ra trong bối cảnh OpenAI đối mặt với nhiều vụ kiện và cuộc điều tra liên quan đến ChatGPT. Công ty đã bắt đầu đấu tranh với các vụ kiện về bản quyền từ The New York Times, các tác giả và nhà xuất bản về cáo buộc rằng họ đã sử dụng tài liệu có bản quyền để huấn luyện các mô hình AI mà không có sự cho phép. Đầu tháng này, gia đình của một nạn nhân thiệt mạng trong vụ xả súng hàng loạt tại Đại học Bang Florida năm 2025 đã đệ đơn kiện liên bang cáo buộc ChatGPT đã cung cấp hướng dẫn về súng đạn và lời khuyên chiến thuật cho kẻ tấn công trước khi xảy ra vụ việc. Tổng Chưởng lý Florida James Uthmeier đã từng tiến hành điều tra OpenAI, nêu rõ các mối quan ngại liên quan đến an toàn trẻ em, sử dụng trái phép, tự gây hại và an ninh quốc gia. OpenAI đã không phản hồi ngay lập tức yêu cầu bình luận từ Decrypt.

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
Thêm một bình luận
Thêm một bình luận
Không có bình luận
  • Ghim