Cơ bản
Giao ngay
Giao dịch tiền điện tử một cách tự do
Giao dịch ký quỹ
Tăng lợi nhuận của bạn với đòn bẩy
Chuyển đổi và Đầu tư định kỳ
0 Fees
Giao dịch bất kể khối lượng không mất phí không trượt giá
ETF
Sản phẩm ETF có thuộc tính đòn bẩy giao dịch giao ngay không cần vay không cháy tải khoản
Giao dịch trước giờ mở cửa
Giao dịch token mới trước niêm yết
Futures
Truy cập hàng trăm hợp đồng vĩnh cửu
TradFi
Vàng
Một nền tảng cho tài sản truyền thống
Quyền chọn
Hot
Giao dịch với các quyền chọn kiểu Châu Âu
Tài khoản hợp nhất
Tối đa hóa hiệu quả sử dụng vốn của bạn
Giao dịch demo
Giới thiệu về Giao dịch hợp đồng tương lai
Nắm vững kỹ năng giao dịch hợp đồng từ đầu
Sự kiện tương lai
Tham gia sự kiện để nhận phần thưởng
Giao dịch demo
Sử dụng tiền ảo để trải nghiệm giao dịch không rủi ro
Launch
CandyDrop
Sưu tập kẹo để kiếm airdrop
Launchpool
Thế chấp nhanh, kiếm token mới tiềm năng
HODLer Airdrop
Nắm giữ GT và nhận được airdrop lớn miễn phí
Launchpad
Đăng ký sớm dự án token lớn tiếp theo
Điểm Alpha
Giao dịch trên chuỗi và nhận airdrop
Điểm Futures
Kiếm điểm futures và nhận phần thưởng airdrop
Đầu tư
Simple Earn
Kiếm lãi từ các token nhàn rỗi
Đầu tư tự động
Đầu tư tự động một cách thường xuyên.
Sản phẩm tiền kép
Kiếm lợi nhuận từ biến động thị trường
Soft Staking
Kiếm phần thưởng với staking linh hoạt
Vay Crypto
0 Fees
Thế chấp một loại tiền điện tử để vay một loại khác
Trung tâm cho vay
Trung tâm cho vay một cửa
Về câu chuyện an toàn AI của Anthropic thực sự là về điều gì
Vụ bê bối về an toàn AI của Anthropic thực sự là gì
Phân tích của Lisa Eadicicco, David Goldman, CNN
Thứ Năm, ngày 26 tháng 2 năm 2026 lúc 10:48 PM GMT+9 5 phút đọc
Đồng sáng lập và CEO của Anthropic, Dario Amodei. - Chance Yeh/Getty Images
Anthropic đã đi đến một ngã rẽ quen thuộc đối với một công ty công nghệ đang phát triển: làm thế nào để mở rộng mà không đánh đổi những nguyên tắc khiến công ty trở nên khác biệt.
Công ty AI đã coi an toàn là nguyên tắc dẫn đường. Công ty đã ủng hộ việc quản lý AI và kêu gọi bảo vệ người lao động khi AI thay thế một số nhiệm vụ của con người. Anthropic đã nỗ lực gửi đi một thông điệp cụ thể tới khách hàng: Chúng tôi là những người tốt.
Tuy nhiên, những “hàng rào” mà công ty tự đặt ra để xây dựng thương hiệu đó bây giờ có thể đang trở thành trở ngại cho thành công của họ.
Tuần này, Lầu Năm Góc đã đưa ra tối hậu thư cho Anthropic: Bỏ các hạn chế về đạo đức AI hoặc mất hợp đồng 200 triệu USD của bạn và đối mặt với việc đưa vào danh sách đen. Riêng trong tuần này, Anthropic cũng nới lỏng chính sách an toàn cốt lõi của mình để cho công ty nhiều tự do hơn nhằm mở rộng trong một thị trường cạnh tranh và diễn biến nhanh.
Chưa rõ tuần này sẽ diễn ra thế nào đối với hoạt động kinh doanh và danh tiếng của Anthropic, nhưng các quyết định của họ sẽ mang tính quyết định.
Chúng ta biết điều đó, vì một tình thế tiến thoái lưỡng nan của Anthropic là câu chuyện quen thuộc trong ngành công nghệ. Nhiều công ty quảng bá giá trị và đạo đức của mình, chỉ để rồi bị buộc phải đối diện với những quyết định khó khăn khiến họ phải chọn giữa tăng trưởng và việc duy trì những lý tưởng đó.
Anthropic có thể nên lưu ý.
OpenAI và cuối tuần của Sam
Sam Altman, CEO của OpenAI. - Andrew Harnik/Getty Images
Chỉ hơn hai năm trước, đối thủ lớn nhất của Anthropic đã phải đối mặt với sự bất đồng liên quan đến tăng trưởng phải đánh đổi lấy an toàn.
Trong một trong những màn kịch drama phòng họp ban điều hành kỳ lạ nhất trong lịch sử doanh nghiệp, đối thủ lớn nhất của Anthropic là OpenAI đã đột ngột sa thải người sáng lập và CEO của họ, Sam Altman, vào một buổi thứ Sáu trong tháng 11 năm 2023, rồi đến thứ Ba tuần sau lại cho ông quay trở lại.
Câu chuyện liên quan đến một cấu trúc doanh nghiệp đặc biệt, trong đó công ty vì lợi nhuận đang tăng trưởng nhanh chóng đứng sau ChatGPT dưới sự giám sát của một hội đồng phi lợi nhuận. Bốn năm trước đó, công ty đã ghi vào điều lệ rằng OpenAI vẫn “quan ngại” về khả năng AI “gây ra thay đổi nhanh chóng” đối với nhân loại. Những người giám sát công ty lo ngại rằng Altman đang tiến quá nhanh đến mức có thể làm suy yếu sự an toàn mà công ty cam kết sẽ cung cấp.
Nhưng việc sa thải Altman đã dẫn đến các mối đe dọa về khả năng xảy ra một làn sóng rời đi của hàng loạt nhân viên – một tình huống không thể chấp nhận được và có thể đã dẫn đến việc công ty bị phá hủy. Vì vậy, chỉ vài ngày sau đó, hội đồng đã cho Altman quay trở lại. Hội đồng giải tán ngay sau đó, và năm ngoái Altman đã thay đổi cấu trúc doanh nghiệp để tự giải phóng khỏi người giám sát phi lợi nhuận của mình.
Kể từ đó, OpenAI đã gặp khó khăn trong việc cân bằng giữa tốc độ và an toàn, và đối mặt với một số vụ kiện cho rằng sản phẩm của hãng đã thuyết phục người trẻ làm hại bản thân. OpenAI bác bỏ những cáo buộc đó.
Apple và kẻ xả súng ở San Bernardino
Giám đốc điều hành Apple Tim Cook. - Godofredo A. Vásquez/AP
Syed Farook và vợ anh ta, Tashfeen Malik, đã sát hại 14 người tại Trung tâm Khu vực Inland ở San Bernardino, California, vào tháng 12 năm 2015. Cặp đôi sau đó đã chết trong một cuộc đấu súng với cảnh sát.
Các điều tra viên đã xin phép để truy xuất dữ liệu từ iPhone của Farook, nhưng họ không thể truy cập vì nó đã bị khóa bằng mã truy cập. Một thẩm phán của California đã yêu cầu Apple giúp lực lượng thực thi pháp luật truy cập vào chiếc điện thoại.
Nhưng trong một bức thư ngỏ, được ký bởi CEO Apple Tim Cook, công ty đã từ chối. Cook nói rằng lệnh của thẩm phán sẽ mở “một cánh cửa hậu vào iPhone”, tức là “một điều mà chúng tôi cho là quá nguy hiểm để tạo ra.” Công ty cho biết họ không có sự cảm thông đối với những kẻ khủng bố, nhưng việc tuân theo lệnh sẽ trao cho chính quyền “quyền được can thiệp vào thiết bị của bất kỳ ai để thu thập dữ liệu của họ.”
Apple đã nhận phải làn sóng chỉ trích rất lớn vì quyết định của mình – bao gồm từ ứng viên tổng thống khi đó Donald Trump. Nhưng kể từ đó, hãng đã nhận được sự khen ngợi rộng rãi vì đứng lên bảo vệ quyền riêng tư của khách hàng, điều này giờ đây đã trở nên đồng nghĩa với thương hiệu của công ty.
Hiện nay, công ty thường xuyên nhấn mạnh rằng họ sẽ không bán dữ liệu khách hàng hoặc lưu trữ một số thông tin cá nhân nhất định trên các máy chủ của mình, nỗ lực phân biệt bản thân với Google, một trong những đối thủ chính của họ.
Etsy vs. các người bán cá nhân
Trụ sở Etsy tại New York. - Michael M. Santiago/Getty Images
Khi đế chế thương mại điện tử của Amazon mới chỉ bắt đầu cất cánh vào đầu những năm 2000, Etsy đã xuất hiện như một lựa chọn thay thế mang tính mới mẻ, nơi người mua có thể tìm thấy những món hàng thủ công độc đáo.
Nhưng họ đã thực hiện một thay đổi gây tranh cãi vào năm 2013, đe dọa làm lung lay tinh thần đó. Công ty đã mở rộng chính sách cho phép người bán sử dụng các nhà sản xuất và thuê ngoài quy trình vận hành, khiến người ta lo ngại vào thời điểm đó rằng họ sẽ không còn tạo ra một “sân chơi công bằng” cho các nhà bán nhỏ độc lập, những người không có nguồn lực để thuê nhân viên.
Dù vậy, quyết định đó là then chốt để Etsy có thể mở rộng thành thị trường như ngày nay, nơi hiện cung cấp hơn 100 triệu mặt hàng để bán và khoảng 8 triệu người bán đang hoạt động.
“Dưới góc nhìn kinh doanh, nó có lợi cho Etsy, nhưng đó là một khoảnh khắc khó khăn đối với công ty,” Arun Sundararajan, giám đốc của Trung tâm Fubon về Công nghệ, Kinh doanh và Đổi mới của NYU Stern, cho biết.
Điều gì tiếp theo cho Anthropic
Ứng dụng Claude AI của Anthropic. - Michael M. Santiago/Getty Images
Những nghiên cứu tình huống này mang đến một lộ trình cảnh báo cho Anthropic.
Hiện tại, hệ quả lớn nhất trong ngắn hạn đối với Anthropic có lẽ là cách các khách hàng và khách hàng tiềm năng đánh giá và đặt niềm tin vào công ty, theo Owen Daniels, phó giám đốc phụ trách phân tích tại Trung tâm An ninh và Công nghệ Mới nổi của Georgetown.
Anthropic cho biết các biện pháp an toàn mà họ tự áp đặt trước đó luôn được thiết kế để linh hoạt và có thể thay đổi khi AI phát triển. Công ty cam kết sẽ minh bạch về an toàn trong tương lai và cho biết thực sự họ không có lựa chọn nào khác: Nếu họ ngừng tăng trưởng, các đối thủ không coi trọng an toàn nhiều như vậy có thể vượt lên và khiến AI “kém an toàn hơn” trên tổng thể.
Chưa rõ chuyện gì sẽ xảy ra từ sự thay đổi của Anthropic, vì các rủi ro hiện hữu đối với AI vẫn phần lớn là “mang tính khái niệm”, Sundararajan nhận xét.
Ông nói rằng ông sẽ hoài nghi về bất kỳ chuyên gia nào gọi đây là một thời điểm quan trọng trong an toàn AI. Nhưng nó vẫn có thể là một thời điểm quan trọng đối với công ty.
“Việc rút lui khỏi một cam kết an toàn cụ thể ở đây của Anthropic, với tôi, lại chủ yếu là chuyện của Anthropic, ít hơn là chuyện về tương lai của AI,” ông nói.
Để biết thêm tin tức và bản tin của CNN, hãy tạo một tài khoản tại CNN.com
Điều khoản và Chính sách Quyền riêng tư
Bảng điều khiển Quyền riêng tư
Thông tin thêm