Về câu chuyện an toàn AI của Anthropic thực sự là về điều gì

Vụ bê bối về an toàn AI của Anthropic thực sự là gì

Phân tích của Lisa Eadicicco, David Goldman, CNN

Thứ Năm, ngày 26 tháng 2 năm 2026 lúc 10:48 PM GMT+9 5 phút đọc

Đồng sáng lập và CEO của Anthropic, Dario Amodei. - Chance Yeh/Getty Images

Anthropic đã đi đến một ngã rẽ quen thuộc đối với một công ty công nghệ đang phát triển: làm thế nào để mở rộng mà không đánh đổi những nguyên tắc khiến công ty trở nên khác biệt.

Công ty AI đã coi an toàn là nguyên tắc dẫn đường. Công ty đã ủng hộ việc quản lý AI và kêu gọi bảo vệ người lao động khi AI thay thế một số nhiệm vụ của con người. Anthropic đã nỗ lực gửi đi một thông điệp cụ thể tới khách hàng: Chúng tôi là những người tốt.

Tuy nhiên, những “hàng rào” mà công ty tự đặt ra để xây dựng thương hiệu đó bây giờ có thể đang trở thành trở ngại cho thành công của họ.

Tuần này, Lầu Năm Góc đã đưa ra tối hậu thư cho Anthropic: Bỏ các hạn chế về đạo đức AI hoặc mất hợp đồng 200 triệu USD của bạn và đối mặt với việc đưa vào danh sách đen. Riêng trong tuần này, Anthropic cũng nới lỏng chính sách an toàn cốt lõi của mình để cho công ty nhiều tự do hơn nhằm mở rộng trong một thị trường cạnh tranh và diễn biến nhanh.

Chưa rõ tuần này sẽ diễn ra thế nào đối với hoạt động kinh doanh và danh tiếng của Anthropic, nhưng các quyết định của họ sẽ mang tính quyết định.

Chúng ta biết điều đó, vì một tình thế tiến thoái lưỡng nan của Anthropic là câu chuyện quen thuộc trong ngành công nghệ. Nhiều công ty quảng bá giá trị và đạo đức của mình, chỉ để rồi bị buộc phải đối diện với những quyết định khó khăn khiến họ phải chọn giữa tăng trưởng và việc duy trì những lý tưởng đó.

Anthropic có thể nên lưu ý.

OpenAI và cuối tuần của Sam

Sam Altman, CEO của OpenAI. - Andrew Harnik/Getty Images

Chỉ hơn hai năm trước, đối thủ lớn nhất của Anthropic đã phải đối mặt với sự bất đồng liên quan đến tăng trưởng phải đánh đổi lấy an toàn.

Trong một trong những màn kịch drama phòng họp ban điều hành kỳ lạ nhất trong lịch sử doanh nghiệp, đối thủ lớn nhất của Anthropic là OpenAI đã đột ngột sa thải người sáng lập và CEO của họ, Sam Altman, vào một buổi thứ Sáu trong tháng 11 năm 2023, rồi đến thứ Ba tuần sau lại cho ông quay trở lại.

Câu chuyện liên quan đến một cấu trúc doanh nghiệp đặc biệt, trong đó công ty vì lợi nhuận đang tăng trưởng nhanh chóng đứng sau ChatGPT dưới sự giám sát của một hội đồng phi lợi nhuận. Bốn năm trước đó, công ty đã ghi vào điều lệ rằng OpenAI vẫn “quan ngại” về khả năng AI “gây ra thay đổi nhanh chóng” đối với nhân loại. Những người giám sát công ty lo ngại rằng Altman đang tiến quá nhanh đến mức có thể làm suy yếu sự an toàn mà công ty cam kết sẽ cung cấp.

Nhưng việc sa thải Altman đã dẫn đến các mối đe dọa về khả năng xảy ra một làn sóng rời đi của hàng loạt nhân viên – một tình huống không thể chấp nhận được và có thể đã dẫn đến việc công ty bị phá hủy. Vì vậy, chỉ vài ngày sau đó, hội đồng đã cho Altman quay trở lại. Hội đồng giải tán ngay sau đó, và năm ngoái Altman đã thay đổi cấu trúc doanh nghiệp để tự giải phóng khỏi người giám sát phi lợi nhuận của mình.

Kể từ đó, OpenAI đã gặp khó khăn trong việc cân bằng giữa tốc độ và an toàn, và đối mặt với một số vụ kiện cho rằng sản phẩm của hãng đã thuyết phục người trẻ làm hại bản thân. OpenAI bác bỏ những cáo buộc đó.

Apple và kẻ xả súng ở San Bernardino

Giám đốc điều hành Apple Tim Cook. - Godofredo A. Vásquez/AP

Syed Farook và vợ anh ta, Tashfeen Malik, đã sát hại 14 người tại Trung tâm Khu vực Inland ở San Bernardino, California, vào tháng 12 năm 2015. Cặp đôi sau đó đã chết trong một cuộc đấu súng với cảnh sát.

Câu chuyện tiếp tục  

Các điều tra viên đã xin phép để truy xuất dữ liệu từ iPhone của Farook, nhưng họ không thể truy cập vì nó đã bị khóa bằng mã truy cập. Một thẩm phán của California đã yêu cầu Apple giúp lực lượng thực thi pháp luật truy cập vào chiếc điện thoại.

Nhưng trong một bức thư ngỏ, được ký bởi CEO Apple Tim Cook, công ty đã từ chối. Cook nói rằng lệnh của thẩm phán sẽ mở “một cánh cửa hậu vào iPhone”, tức là “một điều mà chúng tôi cho là quá nguy hiểm để tạo ra.” Công ty cho biết họ không có sự cảm thông đối với những kẻ khủng bố, nhưng việc tuân theo lệnh sẽ trao cho chính quyền “quyền được can thiệp vào thiết bị của bất kỳ ai để thu thập dữ liệu của họ.”

Apple đã nhận phải làn sóng chỉ trích rất lớn vì quyết định của mình – bao gồm từ ứng viên tổng thống khi đó Donald Trump. Nhưng kể từ đó, hãng đã nhận được sự khen ngợi rộng rãi vì đứng lên bảo vệ quyền riêng tư của khách hàng, điều này giờ đây đã trở nên đồng nghĩa với thương hiệu của công ty.

Hiện nay, công ty thường xuyên nhấn mạnh rằng họ sẽ không bán dữ liệu khách hàng hoặc lưu trữ một số thông tin cá nhân nhất định trên các máy chủ của mình, nỗ lực phân biệt bản thân với Google, một trong những đối thủ chính của họ.

Etsy vs. các người bán cá nhân

Trụ sở Etsy tại New York. - Michael M. Santiago/Getty Images

Khi đế chế thương mại điện tử của Amazon mới chỉ bắt đầu cất cánh vào đầu những năm 2000, Etsy đã xuất hiện như một lựa chọn thay thế mang tính mới mẻ, nơi người mua có thể tìm thấy những món hàng thủ công độc đáo.

Nhưng họ đã thực hiện một thay đổi gây tranh cãi vào năm 2013, đe dọa làm lung lay tinh thần đó. Công ty đã mở rộng chính sách cho phép người bán sử dụng các nhà sản xuất và thuê ngoài quy trình vận hành, khiến người ta lo ngại vào thời điểm đó rằng họ sẽ không còn tạo ra một “sân chơi công bằng” cho các nhà bán nhỏ độc lập, những người không có nguồn lực để thuê nhân viên.

Dù vậy, quyết định đó là then chốt để Etsy có thể mở rộng thành thị trường như ngày nay, nơi hiện cung cấp hơn 100 triệu mặt hàng để bán và khoảng 8 triệu người bán đang hoạt động.

“Dưới góc nhìn kinh doanh, nó có lợi cho Etsy, nhưng đó là một khoảnh khắc khó khăn đối với công ty,” Arun Sundararajan, giám đốc của Trung tâm Fubon về Công nghệ, Kinh doanh và Đổi mới của NYU Stern, cho biết.

Điều gì tiếp theo cho Anthropic

Ứng dụng Claude AI của Anthropic. - Michael M. Santiago/Getty Images

Những nghiên cứu tình huống này mang đến một lộ trình cảnh báo cho Anthropic.

Hiện tại, hệ quả lớn nhất trong ngắn hạn đối với Anthropic có lẽ là cách các khách hàng và khách hàng tiềm năng đánh giá và đặt niềm tin vào công ty, theo Owen Daniels, phó giám đốc phụ trách phân tích tại Trung tâm An ninh và Công nghệ Mới nổi của Georgetown.

Anthropic cho biết các biện pháp an toàn mà họ tự áp đặt trước đó luôn được thiết kế để linh hoạt và có thể thay đổi khi AI phát triển. Công ty cam kết sẽ minh bạch về an toàn trong tương lai và cho biết thực sự họ không có lựa chọn nào khác: Nếu họ ngừng tăng trưởng, các đối thủ không coi trọng an toàn nhiều như vậy có thể vượt lên và khiến AI “kém an toàn hơn” trên tổng thể.

Chưa rõ chuyện gì sẽ xảy ra từ sự thay đổi của Anthropic, vì các rủi ro hiện hữu đối với AI vẫn phần lớn là “mang tính khái niệm”, Sundararajan nhận xét.

Ông nói rằng ông sẽ hoài nghi về bất kỳ chuyên gia nào gọi đây là một thời điểm quan trọng trong an toàn AI. Nhưng nó vẫn có thể là một thời điểm quan trọng đối với công ty.

“Việc rút lui khỏi một cam kết an toàn cụ thể ở đây của Anthropic, với tôi, lại chủ yếu là chuyện của Anthropic, ít hơn là chuyện về tương lai của AI,” ông nói.

Để biết thêm tin tức và bản tin của CNN, hãy tạo một tài khoản tại CNN.com

Điều khoản và Chính sách Quyền riêng tư

Bảng điều khiển Quyền riêng tư

Thông tin thêm

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
Thêm một bình luận
Thêm một bình luận
Không có bình luận
  • Ghim