Công ty AI Anthropic tuyển dụng chuyên gia vũ khí để ngăn chặn người dùng 'lạm dụng'

Công ty trí tuệ nhân tạo Anthropic tìm kiếm chuyên gia vũ khí để ngăn chặn người dùng “lạm dụng”

23 phút trước

Chia sẻLưu

Biên tập viên công nghệ Zoe Kleinman

Chia sẻLưu

Getty Images

Công ty trí tuệ nhân tạo (AI) của Mỹ, Anthropic, đang tuyển dụng chuyên gia về vũ khí hóa học và chất nổ công suất cao để cố gắng ngăn chặn “lạm dụng thảm khốc” phần mềm của họ.

Nói cách khác, họ lo ngại rằng các công cụ AI của mình có thể cung cấp cho ai đó cách chế tạo vũ khí hóa học hoặc phóng xạ, và muốn có một chuyên gia đảm bảo các giới hạn an toàn của họ đủ mạnh.

Trong bài đăng tuyển dụng trên LinkedIn, công ty cho biết ứng viên cần có ít nhất năm năm kinh nghiệm trong lĩnh vực “phòng vệ vũ khí hóa học và/hoặc chất nổ” cũng như kiến thức về “thiết bị phân tán phóng xạ” – còn gọi là bom bẩn.

Công ty cho biết với BBC rằng vai trò này tương tự như các công việc trong các lĩnh vực nhạy cảm khác mà họ đã tạo ra.

Anthropic không phải là công ty AI duy nhất áp dụng chiến lược này.

Vị trí tương tự đã được đăng tuyển bởi nhà phát triển ChatGPT, OpenAI. Trên trang web tuyển dụng của họ, họ đăng tuyển một vị trí nghiên cứu về “rủi ro sinh học và hóa học”, với mức lương lên tới 455.000 USD (£335.000), gần gấp đôi mức lương mà Anthropic đưa ra.

Tuy nhiên, một số chuyên gia lo ngại về rủi ro của cách tiếp cận này, cảnh báo rằng nó cung cấp cho các công cụ AI thông tin về vũ khí – ngay cả khi chúng đã được hướng dẫn không sử dụng.

“Liệu có bao giờ an toàn để sử dụng hệ thống AI xử lý thông tin về các hóa chất nhạy cảm và chất nổ, bao gồm bom bẩn và các vũ khí phóng xạ khác không?” Tiến sĩ Stephanie Hare, nhà nghiên cứu công nghệ và đồng trình bày chương trình truyền hình AI Decoded của BBC, nói.

“Không có hiệp ước quốc tế hay quy định nào cho loại công việc này và việc sử dụng AI với các loại vũ khí này. Tất cả đều diễn ra ngoài tầm mắt.”

Ngành công nghiệp AI liên tục cảnh báo về các mối đe dọa tồn tại tiềm tàng do công nghệ của họ gây ra, nhưng chưa có nỗ lực nào để làm chậm tiến trình phát triển này.

Vấn đề trở nên cấp bách hơn khi chính phủ Mỹ kêu gọi các công ty AI trong khi phát động chiến tranh ở Iran và các hoạt động quân sự ở Venezuela.

LinkedIn

Quảng cáo tuyển dụng của công ty AI Mỹ Anthropic đang tuyển dụng chuyên gia về vũ khí hóa học và chất nổ công suất cao để gia nhập nhóm chính sách của họ

Anthropic đang kiện chính phủ Mỹ, trong đó Bộ Quốc phòng Mỹ đã xếp họ vào danh sách rủi ro chuỗi cung ứng khi công ty khẳng định hệ thống của họ không được sử dụng trong vũ khí tự hành hoàn toàn hoặc giám sát quy mô lớn người Mỹ.

Đồng sáng lập Anthropic, Dario Amodei, viết vào tháng Hai rằng ông không nghĩ công nghệ này đủ tốt và không nên được sử dụng cho các mục đích đó.

Phía Nhà Trắng cho biết quân đội Mỹ sẽ không bị kiểm soát bởi các công ty công nghệ.

Nhãn rủi ro này đưa công ty Mỹ vào cùng nhóm với Huawei, nhà mạng Trung Quốc, cũng bị liệt vào danh sách đen vì các lý do an ninh quốc gia khác nhau.

OpenAI cho biết họ đồng ý với quan điểm của Anthropic nhưng sau đó đã đàm phán hợp đồng riêng với chính phủ Mỹ, và công ty này nói rằng hợp đồng đó vẫn chưa bắt đầu.

Trợ lý AI của Anthropic, gọi là Claude, vẫn chưa bị loại bỏ và hiện vẫn tích hợp trong các hệ thống do Palantir cung cấp và đang được Mỹ triển khai trong cuộc chiến Mỹ-Israel-Iran.

Các tập đoàn công nghệ lớn ủng hộ Anthropic trong cuộc chiến chống chính quyền Trump

Anthropic kiện chính phủ Mỹ vì gọi họ là rủi ro

Chuyên gia an toàn AI nói “thế giới đang gặp nguy hiểm” và từ chức để học thi ca

Đăng ký nhận bản tin Tech Decoded của chúng tôi để theo dõi các câu chuyện và xu hướng công nghệ hàng đầu thế giới. Không ở Vương quốc Anh? Đăng ký tại đây.

Trí tuệ nhân tạo

Quân sự

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
Thêm một bình luận
Thêm một bình luận
Không có bình luận
  • Ghim