Techub News Tin tức, theo báo cáo của CryptoBriefing, chính phủ Trump đang xem xét việc áp dụng kiểm tra an toàn bắt buộc đối với các mô hình AI mới, yêu cầu chúng phải qua đánh giá của chính phủ trước khi công bố.


Biện pháp này xuất phát từ việc mô hình Mythos của Anthropic thể hiện khả năng phát hiện các lỗ hổng phần mềm ẩn, những lỗ hổng có ảnh hưởng đến an ninh quốc gia.
Chính phủ trước đây theo đuổi lập trường nới lỏng quy định, nhưng gần đây đã bắt đầu thảo luận về an toàn AI với các giám đốc điều hành của Anthropic, Google và OpenAI.
Phân tích cho rằng, nếu các mô hình AI của Mỹ có thể phát hiện các lỗ hổng quan trọng trong hệ thống, các quốc gia đối thủ cũng có thể có khả năng tương tự, do đó cần kiểm tra để ngăn chặn công nghệ này bị biến thành vũ khí.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
Thêm một bình luận
Thêm một bình luận
Không có bình luận
  • Ghim