OpenAI’s latest move into healthcare is drawing intense scrutiny from privacy experts and advocates. The company has introduced ChatGPT Health, a feature that lets users upload medical records and wellness information directly into the platform. While OpenAI positions this as a supportive tool developed alongside physicians, the rollout is triggering deeper questions about how health data actually gets protected in the AI age.
Các biện pháp bảo vệ kỹ thuật nghe có vẻ đáng tin cậy—Nhưng các chuyên gia nói rằng chúng chưa đủ
Theo OpenAI, ChatGPT Health thực hiện một số biện pháp bảo vệ: các cuộc trò chuyện về sức khỏe vẫn được mã hóa và tách biệt khỏi các cuộc trò chuyện thông thường, dữ liệu sẽ không được sử dụng để huấn luyện mô hình, và tính năng này chỉ hiển thị thông tin sức khỏe chung chứ không cung cấp lời khuyên y tế cá nhân hóa. Đối với các truy vấn có mức độ rủi ro cao hơn, hệ thống sẽ cảnh báo nguy cơ và hướng dẫn người dùng nói chuyện với các chuyên gia y tế thực thụ.
Trên giấy tờ, các biện pháp phòng ngừa này có vẻ vững chắc. Tuy nhiên, các nhà bảo vệ quyền riêng tư chỉ ra một khoảng trống cơ bản. “Ngay cả với lời hứa của công ty về bảo vệ quyền riêng tư, hầu hết mọi người không có sự minh bạch thực sự, sự đồng ý có ý nghĩa hoặc quyền kiểm soát thực sự đối với những gì xảy ra với thông tin của họ,” cảnh báo J.B. Branch, một nhà phân tích trách nhiệm của các công ty công nghệ lớn. “Dữ liệu sức khỏe cần nhiều hơn là tự quản lý.”
Vấn đề các thực thể được bảo vệ theo HIPAA
Đây là nơi mà khung pháp lý trở nên mơ hồ. Luật quyền riêng tư liên bang—cụ thể là HIPAA—bảo vệ dữ liệu sức khỏe khi nó được giữ bởi một số tổ chức y tế nhất định: phòng khám, bệnh viện, công ty bảo hiểm. Nhưng các thực thể được bảo vệ theo HIPAA chỉ chiếm một phần nhỏ trong hệ sinh thái dữ liệu sức khỏe.
Khi một công ty AI hoặc nhà phát triển ứng dụng y tế lưu trữ thông tin sức khỏe của bạn, các quy định của HIPAA không tự động áp dụng. “Bác sĩ của bạn có nghĩa vụ theo HIPAA. Công ty bảo hiểm của bạn có nghĩa vụ theo HIPAA,” giải thích Andrew Crawford, cố vấn chính sách cao cấp tại Trung tâm vì Dân chủ và Công nghệ. “Nhưng các nhà sản xuất ứng dụng y tế, các công ty thiết bị đeo, và các nền tảng AI? Những yêu cầu của HIPAA đối với các thực thể này không mở rộng đến họ.”
Điều này tạo ra một khoảng trống trách nhiệm. Thiếu luật pháp liên bang toàn diện về quyền riêng tư sức khỏe, gánh nặng sẽ đổ dồn vào từng người dùng để quyết định họ có tin tưởng cách một nền tảng cụ thể xử lý dữ liệu nhạy cảm nhất của họ hay không.
Tại sao điều này quan trọng ngay bây giờ
Thời điểm ra mắt ChatGPT Health là rất đáng chú ý. OpenAI tiết lộ đầu năm nay rằng hơn 1 triệu người dùng tương tác với chatbot hàng tuần về tự tử—khoảng 0.15% tổng số người dùng của ChatGPT vào thời điểm đó. Con số này nhấn mạnh rằng nền tảng đã trở thành một nguồn tài nguyên sức khỏe tâm thần thực tế cho hàng triệu người, dù là theo thiết kế hay vô tình.
Việc triển khai một tính năng sức khỏe riêng biệt làm tăng cả cơ hội và rủi ro. Nhiều người có khả năng sẽ chia sẻ lịch sử y tế nhạy cảm, các vấn đề về sức khỏe tâm thần và mối quan tâm về wellness với ChatGPT. Các quy trình cách ly của công ty và cam kết không huấn luyện mô hình mang lại một số sự an tâm, nhưng chúng không giải quyết được điểm yếu cốt lõi: chuyện gì sẽ xảy ra nếu các tác nhân xấu nhắm mục tiêu vào nền tảng này, hoặc nếu chính sách dữ liệu thay đổi dưới sự lãnh đạo mới của công ty?
Khoảng trống quyền riêng tư rộng hơn
Crawford nhấn mạnh vấn đề cấu trúc: “Luật pháp của chúng ta đặt toàn bộ gánh nặng cho người tiêu dùng để đánh giá xem họ có thoải mái khi tin tưởng một công ty công nghệ với dữ liệu sức khỏe của họ hay không. Điều đó là sai lầm. Nó đặt rủi ro lên từng cá nhân thay vì yêu cầu các công ty công nghệ đáp ứng các tiêu chuẩn rõ ràng, có thể thực thi.”
Tính năng này sẽ được triển khai ban đầu cho một số người dùng ChatGPT ngoài EU và UK, với khả năng mở rộng ra nền tảng web và iOS trong những tuần tới. Nhưng bất kể nó được ra mắt ở đâu, cuộc thảo luận về dữ liệu sức khỏe, các nền tảng AI, và liệu các khung pháp lý hiện tại có đủ hay không sẽ chỉ ngày càng trở nên sôi động hơn.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
Ra mắt ChatGPT Health phơi bày vùng xám trong bảo vệ dữ liệu sức khỏe
OpenAI’s latest move into healthcare is drawing intense scrutiny from privacy experts and advocates. The company has introduced ChatGPT Health, a feature that lets users upload medical records and wellness information directly into the platform. While OpenAI positions this as a supportive tool developed alongside physicians, the rollout is triggering deeper questions about how health data actually gets protected in the AI age.
Các biện pháp bảo vệ kỹ thuật nghe có vẻ đáng tin cậy—Nhưng các chuyên gia nói rằng chúng chưa đủ
Theo OpenAI, ChatGPT Health thực hiện một số biện pháp bảo vệ: các cuộc trò chuyện về sức khỏe vẫn được mã hóa và tách biệt khỏi các cuộc trò chuyện thông thường, dữ liệu sẽ không được sử dụng để huấn luyện mô hình, và tính năng này chỉ hiển thị thông tin sức khỏe chung chứ không cung cấp lời khuyên y tế cá nhân hóa. Đối với các truy vấn có mức độ rủi ro cao hơn, hệ thống sẽ cảnh báo nguy cơ và hướng dẫn người dùng nói chuyện với các chuyên gia y tế thực thụ.
Trên giấy tờ, các biện pháp phòng ngừa này có vẻ vững chắc. Tuy nhiên, các nhà bảo vệ quyền riêng tư chỉ ra một khoảng trống cơ bản. “Ngay cả với lời hứa của công ty về bảo vệ quyền riêng tư, hầu hết mọi người không có sự minh bạch thực sự, sự đồng ý có ý nghĩa hoặc quyền kiểm soát thực sự đối với những gì xảy ra với thông tin của họ,” cảnh báo J.B. Branch, một nhà phân tích trách nhiệm của các công ty công nghệ lớn. “Dữ liệu sức khỏe cần nhiều hơn là tự quản lý.”
Vấn đề các thực thể được bảo vệ theo HIPAA
Đây là nơi mà khung pháp lý trở nên mơ hồ. Luật quyền riêng tư liên bang—cụ thể là HIPAA—bảo vệ dữ liệu sức khỏe khi nó được giữ bởi một số tổ chức y tế nhất định: phòng khám, bệnh viện, công ty bảo hiểm. Nhưng các thực thể được bảo vệ theo HIPAA chỉ chiếm một phần nhỏ trong hệ sinh thái dữ liệu sức khỏe.
Khi một công ty AI hoặc nhà phát triển ứng dụng y tế lưu trữ thông tin sức khỏe của bạn, các quy định của HIPAA không tự động áp dụng. “Bác sĩ của bạn có nghĩa vụ theo HIPAA. Công ty bảo hiểm của bạn có nghĩa vụ theo HIPAA,” giải thích Andrew Crawford, cố vấn chính sách cao cấp tại Trung tâm vì Dân chủ và Công nghệ. “Nhưng các nhà sản xuất ứng dụng y tế, các công ty thiết bị đeo, và các nền tảng AI? Những yêu cầu của HIPAA đối với các thực thể này không mở rộng đến họ.”
Điều này tạo ra một khoảng trống trách nhiệm. Thiếu luật pháp liên bang toàn diện về quyền riêng tư sức khỏe, gánh nặng sẽ đổ dồn vào từng người dùng để quyết định họ có tin tưởng cách một nền tảng cụ thể xử lý dữ liệu nhạy cảm nhất của họ hay không.
Tại sao điều này quan trọng ngay bây giờ
Thời điểm ra mắt ChatGPT Health là rất đáng chú ý. OpenAI tiết lộ đầu năm nay rằng hơn 1 triệu người dùng tương tác với chatbot hàng tuần về tự tử—khoảng 0.15% tổng số người dùng của ChatGPT vào thời điểm đó. Con số này nhấn mạnh rằng nền tảng đã trở thành một nguồn tài nguyên sức khỏe tâm thần thực tế cho hàng triệu người, dù là theo thiết kế hay vô tình.
Việc triển khai một tính năng sức khỏe riêng biệt làm tăng cả cơ hội và rủi ro. Nhiều người có khả năng sẽ chia sẻ lịch sử y tế nhạy cảm, các vấn đề về sức khỏe tâm thần và mối quan tâm về wellness với ChatGPT. Các quy trình cách ly của công ty và cam kết không huấn luyện mô hình mang lại một số sự an tâm, nhưng chúng không giải quyết được điểm yếu cốt lõi: chuyện gì sẽ xảy ra nếu các tác nhân xấu nhắm mục tiêu vào nền tảng này, hoặc nếu chính sách dữ liệu thay đổi dưới sự lãnh đạo mới của công ty?
Khoảng trống quyền riêng tư rộng hơn
Crawford nhấn mạnh vấn đề cấu trúc: “Luật pháp của chúng ta đặt toàn bộ gánh nặng cho người tiêu dùng để đánh giá xem họ có thoải mái khi tin tưởng một công ty công nghệ với dữ liệu sức khỏe của họ hay không. Điều đó là sai lầm. Nó đặt rủi ro lên từng cá nhân thay vì yêu cầu các công ty công nghệ đáp ứng các tiêu chuẩn rõ ràng, có thể thực thi.”
Tính năng này sẽ được triển khai ban đầu cho một số người dùng ChatGPT ngoài EU và UK, với khả năng mở rộng ra nền tảng web và iOS trong những tuần tới. Nhưng bất kể nó được ra mắt ở đâu, cuộc thảo luận về dữ liệu sức khỏe, các nền tảng AI, và liệu các khung pháp lý hiện tại có đủ hay không sẽ chỉ ngày càng trở nên sôi động hơn.