Tôi vừa đọc một điều khiến tôi khá sốc. The New Yorker vừa công bố một cuộc điều tra lớn, trong đó các nhà báo như Ronan Farrow đã thu thập được các tài liệu nội bộ của OpenAI tiết lộ một mô hình đáng lo ngại: rõ ràng Sam Altman đã liên tục nói dối ban lãnh đạo và các giám đốc điều hành về các vấn đề an toàn quan trọng.



Điểm khởi đầu thật tàn bạ. Ilya Sutskever, nhà khoa học chính của OpenAI, đã tổng hợp một tài liệu dài 70 trang cách đây vài năm dựa trên các tin nhắn Slack, liên lạc của bộ phận Nhân sự và biên bản họp. Kết luận của ông trong dòng đầu tiên: Sam thể hiện một mô hình nhất quán của việc nói dối. Một ví dụ cụ thể xuất hiện trong cuộc điều tra: vào tháng 12 năm 2022, Altman đã đảm bảo với ban lãnh đạo rằng nhiều chức năng của GPT-4 đã qua kiểm tra an toàn. Khi họ yêu cầu xem các tài liệu phê duyệt, họ phát hiện ra rằng hai trong số các tính năng gây tranh cãi nhất chưa từng được ban an toàn xem xét.

Nhưng điều thực sự khiến tôi chú ý là những gì họ tìm thấy trong các ghi chú cá nhân của Dario Amodei, người sáng lập Anthropic và cựu trưởng bộ phận an toàn của OpenAI. Hơn 200 trang ghi lại cách công ty từng bước lùi lại dưới áp lực thương mại. Một chi tiết then chốt: khi Microsoft đầu tư vào năm 2019, họ đàm phán một điều khoản 'hợp nhất và hỗ trợ' giả định đảm bảo rằng nếu một đối thủ khác tìm ra con đường an toàn hơn tới AGI, OpenAI sẽ giúp đỡ. Nghe có vẻ hợp lý trên giấy. Vấn đề là Microsoft cũng có quyền phủ quyết đối với điều khoản này, khiến nó trở thành một lời hứa vô nghĩa kể từ ngày ký.

Có một điều nghe có vẻ gần như vô lý nhưng hoàn toàn có thật: đội ngũ 'siêu phù hợp' của OpenAI. Altman công khai tuyên bố rằng họ sẽ dành 20% khả năng tính toán hiện có để nghiên cứu về sự phù hợp của AI, với giá trị tiềm năng vượt quá một tỷ đô la. Đó là một tuyên bố nghiêm túc, đề cập đến các rủi ro diệt vong loài người và tất cả. Nhưng khi các nhà báo phỏng vấn bốn người từng làm việc trong đội đó, thực tế lại khác: khả năng tính toán được phân bổ chỉ khoảng 1% đến 2% tổng, hơn nữa là phần cứng cũ. Đội này đã bị giải thể mà không hoàn thành nhiệm vụ của mình.

Trong khi đó, CFO của OpenAI, Sarah Friar, có những bất đồng nghiêm trọng với Altman về khả năng IPO. Friar tin rằng công ty chưa sẵn sàng ra thị trường chứng khoán trong năm nay, xem xét khối lượng công việc còn lại và các rủi ro tài chính từ cam kết của Altman sẽ chi 600 tỷ đô la cho khả năng tính toán trong vòng năm năm tới. Nhưng điều kỳ lạ là: Friar đã không còn báo cáo trực tiếp với Altman nữa, mà giờ đây báo cáo cho Fidji Simo, người vừa nghỉ phép vì lý do sức khỏe. Một công ty chuẩn bị IPO với những động thái nội bộ như vậy thật sự rất phức tạp.

Một cựu thành viên ban giám đốc mô tả về Altman với hai đặc điểm cùng lúc: mong muốn chân thành làm hài lòng trong từng cuộc gặp mặt trực tiếp, nhưng đồng thời lại có thái độ gần như xã hội bệnh đối với hậu quả của việc lừa dối người khác. Sự kết hợp này, theo báo cáo, hiếm gặp ở người nhưng lại hoàn hảo cho một người bán hàng.

Điều tôi lo ngại là đây không chỉ là chuyện đồn đại nội bộ. OpenAI đang phát triển thứ mà chính họ mô tả là có thể là công nghệ mạnh nhất trong lịch sử loài người. Công nghệ này có thể tái cấu trúc lại nền kinh tế, tạo ra vũ khí sinh học quy mô lớn, hoặc tiến hành các cuộc tấn công mạng. Và các biện pháp bảo vệ an toàn mà họ từng nói là sẽ bảo vệ chống lại các rủi ro này đã bị tháo dỡ. Cựu nhà khoa học chính và cựu trưởng bộ phận an toàn đều coi CEO là người không đáng tin cậy. Các giám đốc điều hành của Microsoft còn so sánh ông với SBF.

Phản ứng của OpenAI với The New Yorker là giảm nhẹ: họ nói rằng bài báo nhắc lại các sự kiện đã được báo cáo trước đó bằng các tuyên bố ẩn danh. Altman không phản hồi các cáo buộc cụ thể, chỉ đặt câu hỏi về động cơ của các nguồn tin.

Mười năm của OpenAI tóm gọn lại: một nhóm những người lý tưởng tạo ra một tổ chức phi lợi nhuận để bảo vệ nhân loại khỏi các rủi ro của AI. Họ đạt được những tiến bộ phi thường. Vốn đầu tư đổ vào ào ạt. Sứ mệnh bắt đầu lung lay. Đội ngũ an toàn bị giải thể. Các nhà phê bình biến mất. Cơ cấu phi lợi nhuận biến thành tổ chức vì lợi nhuận. Hội đồng có quyền đóng cửa công ty giờ đây đầy các đồng minh của CEO. Công ty từng hứa sẽ dành 20% công suất để bảo vệ an toàn con người nay lại có những phát ngôn nói rằng nghiên cứu về an toàn tồn tại 'không phải là thứ thực sự tồn tại'.

Và nhân vật chính của câu chuyện này sắp đưa OpenAI lên IPO với định giá trên 850 tỷ đô la. Hàng trăm nhân chứng đã cùng nhận định: ông ta không thuộc về sự thật.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
Thêm một bình luận
Thêm một bình luận
Không có bình luận
  • Ghim