Brussels mở các cuộc thảo luận riêng về an toàn AI với OpenAI và Anthropic

robot
Đang tạo bản tóm tắt

Vào thứ Hai, Ủy ban Châu Âu cho biết họ đang nói chuyện với OpenAI và Anthropic về các mô hình AI của họ, nhưng hai cuộc trò chuyện này hoàn toàn khác nhau.

Thomas Regnier, phát ngôn viên của Ủy ban tại Brussels, nói với các phóng viên rằng OpenAI là người đầu tiên đề nghị cung cấp quyền truy cập vào mô hình mới nhất của họ. Ủy ban gọi hành động này là chủ động.

Trong khi đó, Anthropic đã gặp gỡ các quan chức bốn hoặc năm lần, nhưng chưa đề cập đến việc truy cập vào mô hình.

“Với một (OpenAI), bạn có một công ty chủ động đề nghị cung cấp quyền truy cập vào công ty. Với công ty còn lại (Anthropic), chúng tôi có những trao đổi tốt mặc dù chưa đến mức có thể suy đoán về khả năng truy cập hay không,” Regnier nói trong cuộc họp báo.

Các chính phủ đang siết chặt vòng tròn xung quanh AI tiên phong

Thời điểm này không phải là ngẫu nhiên. Các chính phủ trên khắp thế giới đang chú ý đến các hệ thống AI tiên tiến.

Năm nay, Luật AI của EU bắt đầu có hiệu lực. Nó được triển khai theo từng giai đoạn. Quy định này đưa ra các quy tắc dựa trên rủi ro cho các nhà cung cấp AI hoạt động tại châu Âu.

Các công ty không bắt buộc phải cung cấp mô hình cho chính phủ xem xét trước khi đưa ra thị trường, nhưng rõ ràng Ủy ban muốn biết nhiều hơn về những gì sắp tới.

OpenAI và Anthropic là hai công ty lớn nhất của Mỹ đang làm việc về AI tiên tiến.

Hệ thống AI của họ ngày càng trở nên khả năng hơn, và các nhà quản lý đang cố gắng hiểu rõ ý nghĩa thực sự của điều đó.

Dịch vụ nghe nhìn của Ủy ban đã liệt kê cuộc thảo luận về OpenAI và Anthropic dưới mục “An ninh mạng” trong chương trình họp trưa ngày 11 tháng 5. Nó được xếp cùng với chính sách quốc phòng và di cư.

Washington đang tiến tới kiểm tra bắt buộc trước khi phát hành

Trong khi Brussels đang thảo luận, Washington có thể bắt buộc.

Tổng thống Mỹ đang xem xét một kế hoạch để xem xét các mô hình AI mạnh nhất trước khi chúng được công khai.

Ý tưởng này đã trở nên sôi động hơn sau khi Anthropic ngăn chặn quyền truy cập rộng hơn vào mô hình mới nhất của họ, Mythos, khi các thử nghiệm nội bộ cho thấy nó có thể tìm ra các lỗi phần mềm có thể khai thác quy mô lớn.

Viện An toàn AI của Vương quốc Anh đã gặp phải vấn đề tương tự vào tháng 4 khi đánh giá GPT-5.5 của OpenAI.

Mô hình này đã phân tích ngược một máy ảo tùy chỉnh và giải quyết một thử thách phức tạp nhanh hơn một chuyên gia con người, theo các phát hiện mà Cryptopolitan đã báo cáo trước đó.

Những nhà trí tuệ crypto thông minh nhất đã đọc bản tin của chúng tôi rồi. Muốn tham gia không? Tham gia cùng họ.

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
Thêm một bình luận
Thêm một bình luận
Không có bình luận
  • Ghim