Cơ bản
Giao ngay
Giao dịch tiền điện tử một cách tự do
Giao dịch ký quỹ
Tăng lợi nhuận của bạn với đòn bẩy
Chuyển đổi và Đầu tư định kỳ
0 Fees
Giao dịch bất kể khối lượng không mất phí không trượt giá
ETF
Sản phẩm ETF có thuộc tính đòn bẩy giao dịch giao ngay không cần vay không cháy tải khoản
Giao dịch trước giờ mở cửa
Giao dịch token mới trước niêm yết
Futures
Truy cập hàng trăm hợp đồng vĩnh cửu
TradFi
Vàng
Một nền tảng cho tài sản truyền thống
Quyền chọn
Hot
Giao dịch với các quyền chọn kiểu Châu Âu
Tài khoản hợp nhất
Tối đa hóa hiệu quả sử dụng vốn của bạn
Giao dịch demo
Giới thiệu về Giao dịch hợp đồng tương lai
Nắm vững kỹ năng giao dịch hợp đồng từ đầu
Sự kiện tương lai
Tham gia sự kiện để nhận phần thưởng
Giao dịch demo
Sử dụng tiền ảo để trải nghiệm giao dịch không rủi ro
Launch
CandyDrop
Sưu tập kẹo để kiếm airdrop
Launchpool
Thế chấp nhanh, kiếm token mới tiềm năng
HODLer Airdrop
Nắm giữ GT và nhận được airdrop lớn miễn phí
Launchpad
Đăng ký sớm dự án token lớn tiếp theo
Điểm Alpha
Giao dịch trên chuỗi và nhận airdrop
Điểm Futures
Kiếm điểm futures và nhận phần thưởng airdrop
Đầu tư
Simple Earn
Kiếm lãi từ các token nhàn rỗi
Đầu tư tự động
Đầu tư tự động một cách thường xuyên.
Sản phẩm tiền kép
Kiếm lợi nhuận từ biến động thị trường
Soft Staking
Kiếm phần thưởng với staking linh hoạt
Vay Crypto
0 Fees
Thế chấp một loại tiền điện tử để vay một loại khác
Trung tâm cho vay
Trung tâm cho vay một cửa
Anthropic, OpenAI Giảm Bớt Ngôn Ngữ An Toàn khi Cuộc Đua AI Thúc Đẩy Tốc Độ
Anthropic, OpenAI Điều Chỉnh Ngôn Ngữ An Toàn Khi Cuộc Đua AI Tăng Tốc
Jason Nelson
Thu, ngày 26 tháng 2 năm 2026 lúc 10:41 AM GMT+9 4 phút đọc
Trong bài viết này:
GOOG
+0.68%
Anthropic đã loại bỏ một cam kết an toàn trung tâm khỏi Chính Sách Mở Rộng Có Trách Nhiệm của mình, theo một báo cáo của TIME. Những thay đổi này nới lỏng một cam kết từng cấm nhà phát triển AI Claude đào tạo các hệ thống AI nâng cao mà không có các biện pháp bảo vệ đảm bảo.
Động thái này định hình lại cách công ty tự định vị trong cuộc đua AI chống lại các đối thủ như OpenAI, Google và xAI. Anthropic từ lâu đã tự nhận mình là một trong những phòng thí nghiệm tập trung vào an toàn nhất trong ngành, nhưng theo chính sách đã sửa đổi, Anthropic không còn hứa hẹn sẽ ngừng đào tạo nếu các biện pháp giảm thiểu rủi ro không được thực hiện đầy đủ.
“Chúng tôi cảm thấy rằng việc ngừng đào tạo các mô hình AI sẽ không thực sự giúp ích cho ai,” giám đốc khoa học của Anthropic, Jared Kaplan, nói với TIME. “Chúng tôi không thực sự cảm thấy, với sự tiến bộ nhanh chóng của AI, rằng việc chúng tôi đưa ra các cam kết đơn phương là hợp lý… nếu các đối thủ đang tiến lên phía trước.”
Sự thay đổi diễn ra khi Anthropic gặp phải tranh chấp công khai với Bộ trưởng Quốc phòng Mỹ Pete Hegseth về việc từ chối cấp quyền truy cập đầy đủ cho Bộ Quốc phòng vào Claude, khiến nó trở thành phòng thí nghiệm AI lớn duy nhất trong số Google, xAI, Meta và OpenAI có lập trường như vậy.
Edward Geist, một nhà nghiên cứu chính sách cấp cao tại RAND Corporation, cho biết khung “an toàn AI” trước đây xuất phát từ một cộng đồng trí thức cụ thể đã tồn tại trước các mô hình ngôn ngữ lớn hiện nay.
“Vài năm trước, đã có lĩnh vực an toàn AI,” Geist nói với Decrypt. “An toàn AI đã liên quan đến một bộ quan điểm cụ thể xuất phát từ cộng đồng những người quan tâm đến AI mạnh mẽ trước khi chúng tôi có những LLM này.”
Geist cho biết các nhà vận động an toàn AI đầu tiên đang làm việc từ một tầm nhìn rất khác về những gì trí tuệ nhân tạo tiên tiến sẽ trông như thế nào.
Thủ tướng Vương quốc Anh Tìm Kiếm Quyền Lực Mới Để Quản Lý AI Chatbot Khi Mối Quan Tâm Về An Toàn Trẻ Em Tăng Cao
“Họ đã kết thúc việc hình dung vấn đề theo cách mà, trong một số khía cạnh, đang tưởng tượng điều gì đó khác biệt một cách chất lượng so với những LLM hiện tại, cho tốt hơn hoặc tồi hơn,” Geist nói.
Geist cho biết sự thay đổi ngôn ngữ cũng gửi tín hiệu đến các nhà đầu tư và nhà hoạch định chính sách.
“Một phần là tín hiệu đến các thành phần khác nhau rằng nhiều công ty này muốn tạo ấn tượng rằng họ không bị kiềm chế trong cuộc cạnh tranh kinh tế vì những lo ngại về ‘an toàn AI,’” ông nói, thêm rằng thuật ngữ tự nó cũng đang thay đổi để phù hợp với thời đại.
Anthropic không phải là công ty duy nhất điều chỉnh ngôn ngữ an toàn của mình.
An toàn AI được định nghĩa như thế nào?
Một báo cáo gần đây của tổ chức tin tức phi lợi nhuận, The Conversation, đã ghi nhận cách OpenAI cũng đã thay đổi tuyên bố sứ mệnh của mình trong hồ sơ IRS năm 2024, loại bỏ từ “an toàn.”
Tuyên bố trước đây của công ty cam kết xây dựng AI đa năng mà “mang lại lợi ích cho nhân loại một cách an toàn, không bị ràng buộc bởi nhu cầu tạo ra lợi nhuận tài chính.” Phiên bản cập nhật hiện phát biểu rằng mục tiêu của nó là “đảm bảo rằng trí tuệ nhân tạo tổng quát mang lại lợi ích cho toàn nhân loại.”
“Vấn đề với thuật ngữ an ninh AI là không ai có vẻ biết chính xác điều đó có nghĩa là gì,” Geist nói. “Tuy nhiên, thuật ngữ an toàn AI cũng đã bị tranh cãi.”
Chính sách mới của Anthropic nhấn mạnh các biện pháp minh bạch như công bố “l roadmap an toàn biên giới” và “báo cáo rủi ro” định kỳ, và nói rằng họ sẽ trì hoãn phát triển nếu họ tin rằng có nguy cơ lớn về thảm họa.
Sự thay đổi chính sách của Anthropic và OpenAI diễn ra khi các công ty này tìm cách củng cố vị thế thương mại của mình.
Trợ Lý AI Mã Nguồn Mở Tăng Trưởng Nhanh Chóng Clawdbot Đang Kiểm Tra Giới Hạn Của Tự Động Hóa—Và An Toàn
Vào đầu tháng này, Anthropic cho biết họ đã huy động được 30 tỷ USD với định giá khoảng 380 tỷ USD. Đồng thời, OpenAI đang hoàn tất một vòng gọi vốn được hỗ trợ bởi Amazon, Microsoft và Nvidia có thể đạt 100 tỷ USD.
Anthropic và OpenAI, cùng với Google và xAI, đã được trao các hợp đồng chính phủ béo bở với Bộ Quốc phòng Mỹ. Tuy nhiên, đối với Anthropic, hợp đồng này có vẻ đang bị nghi ngờ khi Bộ Quốc phòng cân nhắc liệu có nên cắt đứt quan hệ với công ty AI này do khiếu nại về quyền truy cập.
Khi vốn đổ vào lĩnh vực này và cạnh tranh địa chính trị gia tăng, Hamza Chaudhry, Người đứng đầu AI và An ninh Quốc gia tại Viện Tương lai Sống, cho biết sự thay đổi chính sách phản ánh sự thay đổi động lực chính trị hơn là một nỗ lực để thu hút kinh doanh từ Bộ Quốc phòng.
“Nếu đó là trường hợp, họ đã chỉ cần lùi lại từ những gì Bộ Quốc phòng đã nói cách đây một tuần,” Chaudhry nói với Decrypt. “Dario [Amodei] sẽ không xuất hiện để gặp mặt.”
Thay vào đó, Chaudhry cho biết việc viết lại phản ánh một bước ngoặt trong cách các công ty AI nói về rủi ro khi áp lực chính trị và đặt cược cạnh tranh tăng lên.
“Anthropic giờ đây đang nói, ‘Nhìn xem, chúng tôi không thể cứ nói an toàn, chúng tôi không thể tạm dừng vô điều kiện, và chúng tôi sẽ thúc đẩy quy định nhẹ nhàng hơn rất nhiều,’” ông nói.
Điều Khoản và Chính Sách Quyền Riêng Tư
Bảng Điều Khiển Quyền Riêng Tư
Thêm Thông Tin