Cơ bản
Giao ngay
Giao dịch tiền điện tử một cách tự do
Giao dịch ký quỹ
Tăng lợi nhuận của bạn với đòn bẩy
Chuyển đổi và Đầu tư định kỳ
0 Fees
Giao dịch bất kể khối lượng không mất phí không trượt giá
ETF
Sản phẩm ETF có thuộc tính đòn bẩy giao dịch giao ngay không cần vay không cháy tải khoản
Giao dịch trước giờ mở cửa
Giao dịch token mới trước niêm yết
Futures
Truy cập hàng trăm hợp đồng vĩnh cửu
TradFi
Vàng
Một nền tảng cho tài sản truyền thống
Quyền chọn
Hot
Giao dịch với các quyền chọn kiểu Châu Âu
Tài khoản hợp nhất
Tối đa hóa hiệu quả sử dụng vốn của bạn
Giao dịch demo
Giới thiệu về Giao dịch hợp đồng tương lai
Nắm vững kỹ năng giao dịch hợp đồng từ đầu
Sự kiện tương lai
Tham gia sự kiện để nhận phần thưởng
Giao dịch demo
Sử dụng tiền ảo để trải nghiệm giao dịch không rủi ro
Launch
CandyDrop
Sưu tập kẹo để kiếm airdrop
Launchpool
Thế chấp nhanh, kiếm token mới tiềm năng
HODLer Airdrop
Nắm giữ GT và nhận được airdrop lớn miễn phí
Launchpad
Đăng ký sớm dự án token lớn tiếp theo
Điểm Alpha
Giao dịch trên chuỗi và nhận airdrop
Điểm Futures
Kiếm điểm futures và nhận phần thưởng airdrop
Đầu tư
Simple Earn
Kiếm lãi từ các token nhàn rỗi
Đầu tư tự động
Đầu tư tự động một cách thường xuyên.
Sản phẩm tiền kép
Kiếm lợi nhuận từ biến động thị trường
Soft Staking
Kiếm phần thưởng với staking linh hoạt
Vay Crypto
0 Fees
Thế chấp một loại tiền điện tử để vay một loại khác
Trung tâm cho vay
Trung tâm cho vay một cửa
Phân tích bài điều tra sâu của The New Yorker: Tại sao người trong OpenAI lại cho rằng Altman không đáng tin?
Trên một thi thể vô danh của một tổ chức phi lợi nhuận, mọc lên một cây hái ra tiền.
Viết bởi: Tiểu Bánh, Deep Tide TechFlow
Vào mùa thu năm 2023, Giám đốc khoa học của OpenAI là Ilya Sutskever ngồi trước máy tính, hoàn tất một tài liệu dài 70 trang.
Tài liệu này được tổng hợp từ các bản ghi tin nhắn Slack, hồ sơ trao đổi của bộ phận HR và biên bản các cuộc họp nội bộ, chỉ để trả lời một câu hỏi: Sam Altman—người đang nắm giữ có thể là công nghệ nguy hiểm nhất trong lịch sử nhân loại—rốt cuộc có thể tin tưởng được hay không?
Câu trả lời mà Sutskever đưa ra, được viết ở trang đầu tiên của tài liệu, ở dòng đầu tiên; tiêu đề mục trong danh sách là “Sam thể hiện một mô thức hành vi nhất quán…”
Mục 1: Gian dối.
Hai năm rưỡi sau ngày hôm nay, phóng viên điều tra Ronan Farrow và Andrew Marantz đăng tải một bài phóng sự điều tra cực dài trên tờ The New Yorker. Họ phỏng vấn hơn 100 nhân vật liên quan, thu thập được các bản ghi nhớ nội bộ vốn trước đó chưa từng được công khai, cùng với hơn 200 trang ghi chép cá nhân do Dario Amodei—người sáng lập Anthropic—để lại trong thời gian ông còn làm việc tại OpenAI. Câu chuyện được ghép từ những tài liệu này còn khó coi hơn cả vụ “cung đấu” năm 2023: OpenAI đã biến một tổ chức phi lợi nhuận ra đời vì sự an toàn của con người thành một cỗ máy thương mại như thế nào—và hầu như mọi hàng rào an toàn, đều bị chính một người tự tay tháo dỡ.
Kết luận trong ghi chép của Amodei thẳng thừng hơn: “Vấn đề của OpenAI chính là Sam.”
Thiết lập “tội nguyên thủy” của OpenAI
Muốn hiểu trọng lượng của bài báo này, trước hết cần làm rõ vì sao OpenAI lại đặc biệt đến vậy.
Năm 2015, Altman và một nhóm tinh hoa vùng Thung lũng Silicon đã làm một việc gần như không có tiền lệ trong lịch sử thương mại: dùng một tổ chức phi lợi nhuận để phát triển công nghệ có thể là mạnh nhất trong lịch sử nhân loại. Chức năng của ban giám đốc được viết cực kỳ rõ ràng: ưu tiên an toàn hơn cả thành công của công ty, thậm chí còn ưu tiên cả sự tồn tại của công ty. Nói thẳng ra: nếu một ngày AI của OpenAI trở nên nguy hiểm, ban giám đốc có nghĩa vụ tự tay đóng công ty này lại.
Toàn bộ kiến trúc được đặt cược trên một giả định: người nắm giữ AGI phải là một người cực kỳ trung thực.
Lỡ đặt cược sai thì sao?
“Quả bom” cốt lõi của bài điều tra chính là bản tài liệu 70 trang đó. Sutskever không chơi trò chính trị văn phòng; ông là một trong những nhà khoa học AI hàng đầu thế giới. Nhưng đến năm 2023, ông ngày càng tin vào một điều: Altman liên tục nói dối ban lãnh đạo và hội đồng quản trị.
Một ví dụ cụ thể: vào tháng 12/2022, Altman cam kết tại cuộc họp ban giám đốc rằng nhiều tính năng sắp được phát hành của GPT-4 đã vượt qua thẩm định an toàn. Thành viên ban giám đốc Toner yêu cầu xem hồ sơ phê duyệt; kết quả họ phát hiện rằng hai trong số các tính năng gây tranh cãi nhất (việc tinh chỉnh theo yêu cầu của người dùng và triển khai trợ lý cá nhân) thực ra chưa hề được phê duyệt bởi bảng điều khiển an toàn.
Điều còn kỳ lạ hơn xảy ra ở Ấn Độ. Một nhân viên tố cáo với một thành viên ban giám đốc khác về “lần vi phạm đó”: Microsoft đã không hoàn tất thẩm định an toàn cần thiết, nhưng vẫn phát hành sớm phiên bản đầu của ChatGPT tại Ấn Độ.
Sutskever cũng ghi lại trong bản ghi nhớ một việc khác: Altman từng nói với cựu CTO Mira Murati rằng quy trình phê duyệt an toàn không quan trọng, vì cố vấn pháp lý trưởng của công ty đã chấp thuận. Murati chạy đi xác nhận với cố vấn pháp lý; phía kia trả lời: “Tôi không biết Sam đã rút ra ấn tượng đó từ đâu.”
Ghi chép cá nhân hơn 200 trang của Amodei
Tài liệu của Sutskever giống như một bản cáo trạng của công tố viên. Những ghi chép hơn 200 trang do Amodei để lại còn giống nhật ký của một nhân chứng tại hiện trường vụ án.
Trong những năm Amodei làm phụ trách an toàn tại OpenAI, ông tận mắt chứng kiến công ty lùi từng bước dưới áp lực thương mại. Trong ghi chép, ông ghi lại một chi tiết then chốt của thương vụ đầu tư vào Microsoft năm 2019: ông từng nhét vào điều khoản “sáp nhập và hỗ trợ” trong điều lệ OpenAI—ý là nếu có công ty khác tìm thấy lối đi AGI an toàn hơn, thì OpenAI phải dừng cạnh tranh và chuyển sang hỗ trợ công ty đó. Đây là cơ chế đảm bảo an toàn mà ông coi trọng nhất trong toàn bộ thương vụ.
Khi thương vụ gần như sắp được ký, Amodei phát hiện ra một điều: Microsoft đã giành được quyền phủ quyết đối với điều khoản này. Nghĩa là gì? Dù có xảy ra chuyện—một đối thủ tìm được con đường tốt hơn—thì chỉ cần Microsoft nói một câu, là có thể chặn đứng nghĩa vụ hỗ trợ của OpenAI. Điều khoản vẫn nằm trên giấy, nhưng từ ngày ký vào đến nay đã trở thành giấy lộn.
Amodei rời OpenAI sau đó và thành lập Anthropic. Cuộc cạnh tranh giữa hai công ty nằm ở sự bất đồng căn bản về “AI nên được phát triển như thế nào”.
Lời cam kết 20% năng lực tính toán đã biến mất
Trong bài báo có một chi tiết khiến người ta lạnh sống lưng, liên quan đến “đội ngũ siêu căn chỉnh” của OpenAI.
Vào giữa năm 2023, Altman liên hệ qua email với một nghiên cứu sinh tại Berkeley về “căn chỉnh mang tính lừa dối” (AI tỏ ra ngoan ngoãn khi làm bài kiểm tra, nhưng khi triển khai thực tế lại làm theo “bài” của riêng nó). Altman nói rằng ông đặc biệt lo ngại về vấn đề này và đang cân nhắc thiết lập một giải thưởng nghiên cứu toàn cầu trị giá 1 tỷ đô la. Nghiên cứu sinh rất được khích lệ; anh ta xin nghỉ học, gia nhập OpenAI.
Rồi Altman đổi ý: không làm giải thưởng bên ngoài nữa, mà thành lập “đội ngũ siêu căn chỉnh” ngay trong công ty. Công ty công bố rầm rộ rằng sẽ chuyển “20% năng lực tính toán đã có sẵn” cho đội ngũ này, giá trị tiềm năng vượt quá 1Bỷ đô la. Cách diễn đạt trong thông báo cực kỳ nghiêm túc, nói rằng nếu vấn đề căn chỉnh không được giải quyết, AGI có thể dẫn tới “tước quyền lực của con người, thậm chí là diệt vong của loài người”.
Jan Leike—người được bổ nhiệm dẫn dắt đội này—sau đó nói với phóng viên rằng, chính lời cam kết đó bản thân nó đã là một “công cụ giữ chân nhân tài” rất hiệu quả.
Còn thực tế thì sao? Bốn người làm việc trong đội này hoặc tiếp xúc mật thiết với đội cho biết rằng phần năng lực tính toán thực sự được cấp chỉ khoảng 1% đến 2% tổng năng lực tính toán của công ty, và lại là phần cứng cũ kỹ nhất. Đội này sau đó bị giải tán, sứ mệnh chưa hoàn thành.
Khi phóng viên yêu cầu được phỏng vấn những người phụ trách nghiên cứu “an toàn tồn tại” của OpenAI, phản ứng từ bộ phận PR của công ty lại khiến người ta vừa buồn cười vừa chua chát: “Đó không phải là một… thứ thực sự tồn tại.”
Altman thì tỏ ra bình thản. Ông nói với phóng viên rằng trực giác của ông “không thật sự hợp gu” với nhiều thứ về an toàn AI truyền thống; còn OpenAI vẫn sẽ làm các “dự án về an toàn, hoặc ít nhất là những dự án dính dáng đến an toàn.”
CFO bị gạt ra và IPO sắp tới
Bài báo của The New Yorker chỉ là một nửa tin xấu của ngày hôm đó. Cùng ngày, The Information tung thêm một tin nóng khác: CFO của OpenAI là Sarah Friar xảy ra bất đồng nghiêm trọng với Altman.
Friar nói riêng với đồng nghiệp rằng bà cho rằng OpenAI vẫn chưa sẵn sàng để lên sàn trong năm nay. Có hai lý do: khối lượng công việc mang tính thủ tục và tổ chức cần hoàn tất quá lớn, và rủi ro tài chính do cam kết của Altman về chi tiêu năng lực tính toán 600Bỷ đô la trong 5 năm quá cao. Bà còn không chắc liệu đà tăng trưởng doanh thu của OpenAI có trụ vững được trước các cam kết đó hay không.
Nhưng Altman muốn dồn lực IPO ngay trong quý IV năm nay.
Càng khó hiểu hơn, Friar đã không còn báo cáo trực tiếp cho Altman nữa. Từ tháng 8/2025, bà chuyển sang báo cáo cho Fidji Simo (CEO mảng ứng dụng của OpenAI). Mà Simo tuần trước vừa xin nghỉ ốm vì lý do sức khỏe. Bạn thử ngẫm xem tình huống này: một công ty đang dồn lực cho IPO, CEO và CFO có bất đồng căn bản, CFO không báo cáo cho CEO, và cấp trên của CFO lại đang nghỉ.
Ngay cả các lãnh đạo trong nội bộ Microsoft cũng không chịu nổi nữa, nói rằng Altman “bóp méo sự thật, thất hứa, và liên tục lật lại các thỏa thuận đã đạt được.” Một lãnh đạo Microsoft còn nói rằng: “Tôi nghĩ có một xác suất nhất định cuối cùng ông ấy sẽ bị người ta nhớ đến như kẻ lừa đảo ở tầm Bernie Madoff hoặc SBF.”
Chân dung “kẻ hai mặt” của Altman
Một cựu thành viên ban giám đốc của OpenAI mô tả với phóng viên rằng Altman có hai đặc điểm trên con người. Đoạn này có lẽ là bản phác họa nhân vật “đả kích” nhất trong toàn bộ bài báo.
Vị giám đốc đó nói rằng Altman có một tổ hợp đặc tính cực kỳ hiếm: ông luôn khao khát khiến đối phương vui lòng và được đối phương thích trong từng cuộc trao đổi trực tiếp. Đồng thời, ông lại có một thái độ thản nhiên đến mức gần như bệnh lý đối với hậu quả có thể đến từ việc lừa dối người khác.
Hai đặc tính cùng xuất hiện ở một người là vô cùng hiếm. Nhưng với một kẻ đi bán hàng, đó lại là tài năng hoàn hảo nhất.
Bài báo có một phép so sánh hay: Jobs nổi tiếng với “trường lực bóp méo hiện thực”; ông có thể khiến cả thế giới tin vào tầm nhìn của mình. Nhưng ngay cả Jobs cũng chưa từng nói với khách hàng rằng: “Nếu anh không mua máy phát MP3 của tôi, người anh yêu sẽ chết.”
Altman từng nói những câu tương tự—liên quan đến AI.
Vấn đề nhân cách của một CEO—tại sao lại là rủi ro của tất cả mọi người
Nếu Altman chỉ là CEO của một công ty công nghệ bình thường, thì những cáo buộc này nhiều lắm cũng chỉ là một mẩu chuyện tai tiếng thương mại rất hấp dẫn. Nhưng OpenAI thì không phải là công ty bình thường.
Theo cách họ tự mô tả, họ đang phát triển công nghệ có thể là mạnh nhất trong lịch sử nhân loại. Công nghệ đó có thể tái định hình nền kinh tế toàn cầu và thị trường lao động (OpenAI vừa phát hành một bản sách trắng chính sách về việc AI gây ra thất nghiệp), đồng thời cũng có thể được dùng để chế tạo vũ khí sinh học quy mô lớn hoặc phát động các cuộc tấn công mạng.
Tất cả các hàng rào an toàn đều chỉ tồn tại trên danh nghĩa. Sứ mệnh phi lợi nhuận của người sáng lập nhường chỗ cho cuộc chạy nước rút IPO. Cả cựu giám đốc khoa học lẫn cựu phụ trách an toàn đều kết luận rằng CEO “không đáng tin”. Đối tác thì so CEO với SBF. Trong bối cảnh như vậy, CEO này dựa vào đâu để tự mình quyết định khi nào phát hành mô hình AI có thể thay đổi vận mệnh của nhân loại?
Gary Marcus (giáo sư AI tại Đại học New York, người ủng hộ lâu năm về an toàn AI) sau khi đọc bài báo đã viết một câu: nếu một mô hình OpenAI trong tương lai có thể chế tạo vũ khí sinh học quy mô lớn hoặc phát động các cuộc tấn công mạng thảm họa, thì bạn có thật sự yên tâm khi để Altman một mình quyết định có phát hành hay không?
Phản hồi của OpenAI đối với The New Yorker thì lại khá ngắn gọn: “Phần lớn nội dung bài viết đang lật lại những sự kiện đã được đưa tin trước đó, thông qua lối nói ẩn danh và giai thoại có chọn lọc; nguồn tin rõ ràng có mục đích cá nhân.”
Đúng kiểu phản hồi của Altman: không trả lời các cáo buộc cụ thể, không phủ nhận tính xác thực của các bản ghi nhớ, chỉ đặt câu hỏi về động cơ.
Trên một thi thể phi lợi nhuận, mọc lên một cây hái ra tiền
Thập kỷ của OpenAI, nếu viết thành một dàn ý câu chuyện thì như sau:
Một nhóm những người lý tưởng lo ngại rủi ro của AI tạo ra một tổ chức phi lợi nhuận định hướng theo sứ mệnh. Tổ chức đạt được các đột phá công nghệ phi thường. Những đột phá thu hút lượng vốn khổng lồ. Vốn cần có lợi nhuận. Sứ mệnh bắt đầu nhường đường. Đội ngũ an toàn giải tán. Những người chất vấn bị thanh lọc. Cấu trúc phi lợi nhuận được chuyển thành thực thể vì lợi nhuận. Ban giám đốc trước đây từng có quyền đóng công ty nay lại đầy ắp đồng minh của CEO. Công ty từng cam kết dành 20% năng lực tính toán để bảo vệ an toàn cho con người—giờ nhân viên PR nói “đó không phải là một thứ thực sự tồn tại”.
Nhân vật chính của câu chuyện—hơn một trăm người trong cuộc—đã gắn cho anh ta cùng một nhãn: “Không bị ràng buộc bởi sự thật.”
Anh ấy đang chuẩn bị đưa công ty này IPO, với định giá vượt quá 850B đô la.
Bài viết tổng hợp thông tin từ các bản tin công khai của nhiều cơ quan truyền thông như The New Yorker, Semafor, Tech Brew, Gizmodo, Business Insider, The Information…