Câu chuyện thú vị đã xảy ra với OpenAI và Bộ Quốc phòng. Sam Altman, CEO của công ty, bất ngờ thừa nhận rằng thương vụ này trông khá opportunistic và cẩu thả. Thành thật mà nói, hiếm khi thấy một lãnh đạo tập đoàn lớn thẳng thắn thừa nhận những thiếu sót trong quyết định của mình.



Nói chung, vấn đề là công nghệ AI của OpenAI có thể đã bị sử dụng cho mục đích giám sát nội bộ hoặc bởi các cơ quan tình báo như NSA. Rõ ràng, điều này đã gây ra làn sóng chỉ trích và lo ngại trong cộng đồng. Những thiếu sót trong điều khoản hợp đồng đã trở nên nghiêm trọng hơn những gì ban đầu nghĩ.

OpenAI đã làm gì? Họ đã bổ sung các điều khoản mới vào thỏa thuận để bảo vệ công nghệ của mình khỏi việc sử dụng trái phép tiềm năng. Về cơ bản, đây là nỗ lực khắc phục những thiếu sót cho phép các cơ quan nhà nước sử dụng AI để giám sát.

Đây là một bước ngoặt thú vị trong lịch sử tương tác giữa Big Tech và chính phủ. Công ty đã đối mặt với các câu hỏi đạo đức và quyết định nhận trách nhiệm. Tuy nhiên, tất nhiên, vẫn còn câu hỏi: tại sao những thiếu sót này lại không được dự liệu từ ban đầu? Dù sao đi nữa, bước tiến hướng tới việc sử dụng AI có trách nhiệm trong các hợp đồng nhà nước là điều cần thiết.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
Thêm một bình luận
Thêm một bình luận
Không có bình luận
  • Ghim