Chatbot giả danh bác sĩ tâm thần, bịa đặt số giấy phép, Thống đốc Pennsylvania kiện Character.AI vì hành nghề trái phép

Pennsylvania governor Josh Shapiro đã đệ đơn kiện công ty mẹ của Character.AI vào ngày 5 tháng 5, nguyên nhân là do một chatbot tự xưng là “bác sĩ tâm thần” đã giả mạo bằng cấp từ Imperial College, có 7 năm kinh nghiệm hành nghề và số giấy phép Pennsylvania, đồng thời trực tiếp cung cấp đánh giá y tế.
(Thông tin trước đó: OpenAI tạm hoãn vô thời hạn “ChatGPT phiên bản người lớn”! Lo ngại rủi ro nội dung trái phép, không phát triển nội dung nhạy cảm, quay trở lại công cụ tăng năng suất)
(Thông tin bổ sung: nội bộ a16z xem xét lại: Sản phẩm xã hội AI có thể về cơ bản là không khả thi)

Một chatbot cung cấp số giấy phép, khiến một chính quyền tiểu bang quyết định đưa vụ việc ra tòa? Điều tra viên của Pennsylvania Department of State giả làm người dùng cảm thấy chán nản, trống rỗng, không động lực, đối tượng là một nhân vật tên là “Emilie” trên nền tảng Character.AI, tự xưng là bác sĩ tâm thần.

Pennsylvania Department of State có thành lập Nhóm Nhiệm vụ AI, chuyên điều tra xem các hệ thống AI có liên quan đến hành nghề y trái phép hay không. Sau khi tạo tài khoản, điều tra viên vào nền tảng Character.AI, chọn tương tác với “Emilie”. Trong cuộc trò chuyện, Emilie tự xưng đã tốt nghiệp Imperial College London, có 7 năm kinh nghiệm hành nghề tâm thần, và khi bị hỏi, cung cấp một dãy số giấy phép Pennsylvania.

Tuy nhiên, dãy số này là giả, học vấn từ Imperial College là giả, 7 năm kinh nghiệm cũng là giả, hành vi cung cấp đánh giá y tế của Emilie đã chạm vào giới hạn pháp lý.

Thông cáo của chính quyền Pennsylvania chỉ rõ, hành vi của Character.AI vi phạm “Luật hành nghề y của Pennsylvania”, cho phép các thực thể không có giấy phép cung cấp các lời khuyên y tế mang tính chẩn đoán cho người dùng. Đơn kiện yêu cầu Tòa án Commonwealth ban hành lệnh cấm tạm thời, ngăn chặn Character.AI tiếp tục để chatbot giả danh các chuyên gia y tế hoặc tâm thần có giấy phép.

Shapiro trong tuyên bố nói:

“Người dân Pennsylvania cần biết ai hoặc cái gì đang tương tác với họ trên mạng, đặc biệt là trong các tình huống liên quan đến sức khỏe. Chúng tôi không cho phép bất kỳ công ty nào triển khai công cụ AI khiến người dùng nhầm tưởng rằng họ đang nhận được lời khuyên từ các chuyên gia y tế có giấy phép.”

Không phải lần đầu, nhưng lần này khác biệt

Character.AI đã đối mặt với áp lực pháp lý liên tục trong hơn một năm rưỡi, nhưng tính chất các vụ kiện luôn thay đổi.

Tháng 10 năm 2024, mẹ của một bé trai 14 tuổi tên Sewell Setzer III ở Florida, Megan Garcia, đã đệ đơn kiện tại tòa liên bang, cho rằng chatbot đồng hành của Character.AI đã thúc đẩy hành vi tự tử của con trai mình. Sau đó, các bang Florida, Texas, Colorado, New York lần lượt có các gia đình tiếp tục kiện.

Tháng 1 năm 2026, theo báo cáo của The New York Times, Character.AI đã hòa giải nhiều vụ kiện liên quan đến tự tử của trẻ vị thành niên cùng Google, trong đó Google bị cáo buộc là đồng bị đơn do đã ký hợp đồng cấp phép công nghệ của Character.AI trị giá 2,7 tỷ USD vào năm 2024 và tiếp nhận một phần nhóm sáng lập. Cùng tháng, Tổng chưởng lý Kentucky, Russell Coleman, đã đệ đơn kiện riêng, cáo buộc Character.AI “lợi dụng trẻ em, dụ dỗ tự làm hại bản thân”.

Chủ đề chung của các vụ kiện này là: nền tảng gây tổn thương tâm lý cho trẻ vị thành niên.

Lần này, vụ kiện của Pennsylvania lại khác hoàn toàn, không tập trung vào tác dụng phụ của việc đồng hành cảm xúc, mà trực tiếp cáo buộc rằng Character.AI cho phép robot “hành nghề”, và trong quá trình hành nghề, giả mạo thông tin danh tính. Đây là vụ kiện cấp bang đầu tiên do thống đốc bang tuyên bố, tập trung vào việc giả danh nhân viên y tế có giấy phép.

Characters là hư cấu vs. người dùng không biết

Phát ngôn viên của Character.AI cho biết, an toàn người dùng là ưu tiên hàng đầu của công ty, nhưng không phản hồi chi tiết vụ kiện. Công ty nhấn mạnh rằng các Characters trên nền tảng là các nhân vật hư cấu do người dùng tạo ra, mỗi cuộc trò chuyện đều có tuyên bố miễn trách rõ ràng, nhắc nhở người dùng “Characters không phải người thật, tất cả các phát ngôn đều mang tính hư cấu.”

Lập luận này có tính nhất quán, nhưng chính quyền Pennsylvania rõ ràng không chấp nhận. Quan điểm của chính quyền là: sự tồn tại của tuyên bố miễn trách không thể loại trừ khả năng một robot trong cuộc trò chuyện tự tuyên bố mình có giấy phép, có thể cung cấp đánh giá y tế; hai điều này không mâu thuẫn, nhưng điều sau đã rơi vào phạm vi hành nghề y trái phép theo luật định.

Tốc độ triển khai công nghệ một lần nữa nhanh hơn phản ứng của cơ quan quản lý. Khả năng vụ kiện của Pennsylvania có thành công hay không sẽ phụ thuộc vào cách tòa án định nghĩa “hành nghề y trái phép” trong bối cảnh AI, nhưng dù kết quả thế nào, các văn phòng công tố của các bang khác đều đang theo dõi vụ việc này sẽ đi về đâu.

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
Thêm một bình luận
Thêm một bình luận
Không có bình luận
  • Ghim