Phá vỡ cổ phiếu lưu trữ 900 tỷ USD của Google AI bị cáo buộc gian lận trong thí nghiệm

Tác giả nguyên văn: Deep Tide TechFlow

Một bài báo của Google được cho là “nén mức tiêu thụ bộ nhớ của AI xuống còn 1/6”, tuần trước đã khiến cổ phiếu của các nhà sản xuất chip lưu trữ toàn cầu như Micron, SanDisk… bốc hơi hơn 90 tỷ USD giá trị vốn hóa chỉ trong thời gian ngắn.

Tuy nhiên, chỉ sau hai ngày kể từ khi bài báo được công bố, “thứ mà thuật toán tự cho là nghiền” – bên đối lập mà họ nhắm vào – là nghiên cứu sinh sau tiến sĩ người từng ở ETH Zurich (Đại học Bách khoa Liên bang Thụy Sĩ) là Gao Jianyang đã đăng một bức thư công khai dài hàng vạn chữ, cáo buộc nhóm Google trong thí nghiệm đã dùng kịch bản Python trên CPU đơn nhân để thử nghiệm đối thủ, nhưng lại dùng GPU A100 để thử nghiệm chính mình; và sau khi đã được thông báo về vấn đề này trước khi nộp bài, họ vẫn từ chối sửa đổi. Lượng đọc trên Zhihu nhanh chóng vượt 4 triệu, tài khoản chính thức của Stanford NLP đã chuyển tiếp, khiến cả giới học thuật lẫn thị trường cùng chấn động.

Vấn đề cốt lõi của cuộc tranh cãi này không hề phức tạp: một bài “AI top conference” được Google chính thức đẩy mạnh trên quy mô lớn, trực tiếp kích hoạt làn sóng bán tháo hoảng loạn trên toàn bộ phân khúc chip, liệu có đang một cách có hệ thống bóp méo một công trình đi trước đã được công bố hay không—và thông qua việc cố ý tạo ra các thí nghiệm thiếu công bằng, đã “đúc” nên câu chuyện lợi thế hiệu năng giả?

TurboQuant đã làm gì: ép “giấy nháp” của AI mỏng lại chỉ còn 1/6 so với ban đầu

Khi mô hình ngôn ngữ lớn tạo câu trả lời, cần vừa viết vừa quay lại xem những nội dung đã tính trước đó. Các kết quả trung gian này được lưu tạm trong bộ nhớ hiển thị; trong ngành gọi đó là “KV Cache” (bộ nhớ đệm khóa-giá trị). Cuộc đối thoại càng dài, “tờ giấy nháp” này càng dày, mức tiêu hao bộ nhớ hiển thị càng lớn, chi phí cũng càng cao.

Thuật toán TurboQuant do nhóm nghiên cứu Google phát triển, điểm bán hàng cốt lõi là nén tờ giấy nháp này xuống còn 1/6 so với ban đầu, đồng thời tuyên bố không mất mát độ chính xác và tốc độ suy luận tăng tối đa 8 lần. Bài báo lần đầu được đăng trên nền tảng preprint arXiv vào tháng 4 năm 2025; đến tháng 1 năm 2026 được hội nghị hàng đầu trong lĩnh vực AI ICLR 2026 chấp nhận; ngày 24 tháng 3, được blog chính thức của Google đóng gói lại và đẩy mạnh quảng bá.

Về mặt kỹ thuật, có thể hiểu đơn giản cách tiếp cận của TurboQuant như sau: trước tiên dùng một biến đổi toán học để “rửa” dữ liệu lộn xộn thành một định dạng thống nhất, sau đó dùng bảng nén tối ưu đã được tính sẵn để nén từng phần, và cuối cùng dùng cơ chế sửa lỗi 1-bit để hiệu chỉnh sai lệch tính toán do việc nén gây ra. Các triển khai độc lập của cộng đồng đã xác nhận rằng hiệu quả nén của nó về cơ bản là đúng như công bố; đóng góp toán học theo hướng thuật toán là có thật.

Điểm tranh cãi không nằm ở việc TurboQuant có dùng được hay không, mà là: để chứng minh rằng nó “vượt xa đối thủ cạnh tranh”, Google đã làm gì.

Thư công khai của Gao Jianyang: ba cáo buộc, mỗi cáo buộc đều chạm đúng chỗ hiểm

Tối 27 tháng 3, lúc 10 giờ, Gao Jianyang đăng một bài dài trên Zhihu, đồng thời nộp bình luận chính thức lên nền tảng phản biện ICLR OpenReview. Gao Jianyang là tác giả đầu tiên của thuật toán RaBitQ; thuật toán này được công bố năm 2024 trong hội nghị hàng đầu về cơ sở dữ liệu SIGMOD, giải quyết một nhóm vấn đề tương tự—nén hiệu quả các vectơ chiều cao.

Các cáo buộc của ông được chia thành ba phần, và mỗi phần đều có bản ghi email lẫn dòng thời gian để làm bằng chứng.

Cáo buộc 1: dùng phương pháp cốt lõi của người khác, nhưng toàn văn không hề nhắc đến.

Trong lõi kỹ thuật của TurboQuant và RaBitQ có một bước chung then chốt: trước khi nén dữ liệu, đầu tiên thực hiện một “phép quay ngẫu nhiên” đối với dữ liệu. Bước này có tác dụng biến dữ liệu ban đầu vốn phân bố không đều thành một phân bố đồng đều có thể dự đoán, từ đó giảm đáng kể độ khó của nén. Đây là phần cốt lõi nhất của hai thuật toán, đồng thời cũng là phần gần nhau nhất.

Trong phần trả lời phản biện, chính tác giả TurboQuant cũng thừa nhận điều này, nhưng trong toàn văn bài báo thì chưa bao giờ giải thích trực diện mối liên hệ của phương pháp này với RaBitQ. Điểm quan trọng hơn là: tác giả thứ hai của TurboQuant, Majid Daliri, vào tháng 1 năm 2025 đã chủ động liên hệ nhóm của Gao Jianyang, yêu cầu hỗ trợ gỡ lỗi phiên bản Python mà anh ta cải biên dựa trên mã nguồn RaBitQ. Trong email có mô tả chi tiết các bước tái hiện và thông tin lỗi—nói cách khác, nhóm TurboQuant hiểu rất rõ các chi tiết kỹ thuật của RaBitQ.

Một phản biện ẩn danh của ICLR cũng độc lập chỉ ra rằng hai bên sử dụng cùng một kỹ thuật, và yêu cầu phải thảo luận đầy đủ hơn. Nhưng trong phiên bản cuối của bài báo, nhóm TurboQuant không những không bổ sung thảo luận, mà còn chuyển phần mô tả về RaBitQ (vốn đã không đầy đủ) trong phần nội dung chính sang phụ lục.

Cáo buộc 2: không có căn cứ mà lại gắn nhãn lý thuyết của đối phương là “kém tối ưu”.

Bài báo TurboQuant trực tiếp gắn cho RaBitQ nhãn “lý thuyết kém tối ưu” (suboptimal), với lý do phân tích toán học của RaBitQ “khá thô”. Nhưng Gao Jianyang chỉ ra rằng, bản mở rộng của bài báo RaBitQ đã chứng minh chặt chẽ rằng sai số nén đạt cận tối ưu về mặt toán học—kết luận này được công bố tại hội nghị hàng đầu trong lý thuyết khoa học máy tính.

Vào tháng 5 năm 2025, nhóm của Gao Jianyang đã nhiều vòng giải thích bằng email về tính tối ưu của lý thuyết RaBitQ. Tác giả thứ hai của TurboQuant, Daliri, xác nhận đã thông báo cho toàn bộ tác giả. Thế nhưng cuối cùng bài báo vẫn giữ nguyên cách diễn đạt “kém tối ưu” và không đưa ra bất kỳ luận cứ phản bác nào.

Cáo buộc 3: trong so sánh thí nghiệm “tay trái trói người, tay phải cầm dao”.

Đây là cáo buộc gây sát thương nhất trong toàn văn. Gao Jianyang cho rằng, trong thí nghiệm so sánh tốc độ của bài báo TurboQuant, họ chồng thêm hai điều kiện thiếu công bằng:

Thứ nhất, RaBitQ cung cấp mã nguồn C++ đã được tối ưu (mặc định hỗ trợ chạy song song nhiều luồng), nhưng nhóm TurboQuant đã không sử dụng, mà lại dùng phiên bản Python do họ tự dịch để thử nghiệm RaBitQ. Thứ hai, khi thử nghiệm RaBitQ, họ dùng CPU lõi đơn và tắt đa luồng; còn TurboQuant lại dùng GPU NVIDIA A100.

Tác động khi chồng hai điều kiện này lại là: người đọc thấy kết luận rằng “RaBitQ chậm hơn TurboQuant vài bậc độ lớn”, nhưng không thể biết rằng kết luận đó dựa trên tiền đề là Google đã trói đối thủ trước rồi mới cho chạy thi đấu. Bài báo không công bố đầy đủ sự khác biệt về các điều kiện thí nghiệm này.

Phản hồi của Google: “Quay ngẫu nhiên là kỹ thuật phổ dụng, không thể bài nào cũng trích dẫn”

Theo phần tiết lộ của Gao Jianyang, trong email phản hồi của nhóm TurboQuant vào tháng 3 năm 2026, họ nêu rằng: “Việc sử dụng phép quay ngẫu nhiên và biến đổi Johnson-Lindenstrauss đã là kỹ thuật tiêu chuẩn trong lĩnh vực này; chúng tôi không thể trích dẫn từng bài báo nào sử dụng các phương pháp đó.”

Nhóm của Gao Jianyang cho rằng đó là đánh tráo khái niệm: vấn đề không phải là có trích dẫn tất cả các bài báo đã dùng phép quay ngẫu nhiên hay không, mà là RaBitQ đã kết hợp phương pháp này với nén vectơ dưới đúng thiết lập bài toán hoàn toàn tương tự và là công trình đầu tiên chứng minh tính tối ưu của nó. Do đó bài báo TurboQuant phải mô tả chính xác mối quan hệ giữa hai công trình.

Tài khoản X chính thức của Stanford NLP Group đã chuyển tiếp tuyên bố của Gao Jianyang. Nhóm của Gao Jianyang đã đăng bình luận công khai trên nền tảng ICLR OpenReview, đồng thời gửi khiếu nại chính thức đến chủ tịch hội nghị ICLR và ủy ban đạo đức; sau đó họ cũng sẽ công bố báo cáo kỹ thuật chi tiết trên arXiv.

Một blogger kỹ thuật độc lập là Dario Salvati trong phần phân tích đưa ra đánh giá tương đối trung lập: TurboQuant thực sự có đóng góp thật về mặt phương pháp toán học, nhưng mối quan hệ của nó với RaBitQ chặt chẽ hơn rất nhiều so với cách bài báo thể hiện.

Bốc hơi 90 tỷ USD giá trị vốn hóa: tranh cãi bài báo chồng lên nỗi hoảng sợ của thị trường

Mốc thời gian của cuộc tranh cãi học thuật này cực kỳ nhạy cảm. Sau khi Google đăng TurboQuant trên blog chính thức vào ngày 24 tháng 3, toàn bộ phân khúc chip lưu trữ trên thế giới trải qua đợt bán tháo dữ dội. Theo nhiều hãng tin như CNBC, Micron giảm liên tiếp trong 6 phiên giao dịch, mức giảm tích lũy vượt 20%; SanDisk giảm tới 11% trong một ngày; SK Hynix của Hàn Quốc giảm khoảng 6%; Samsung Electronics giảm gần 5%; Kioxia của Nhật giảm khoảng 6%. Logic của cơn hoảng loạn thị trường cực kỳ đơn giản và thô sơ: phần mềm nén có thể giảm nhu cầu bộ nhớ suy luận của AI đi 6 lần, triển vọng nhu cầu của chip lưu trữ sẽ bị hạ xuống một cách mang tính cấu trúc.

Nhà phân tích Joseph Moore của Morgan Stanley trong báo cáo ngày 26 tháng 3 đã phản bác logic này, đồng thời giữ khuyến nghị “mua thêm” đối với Micron và SanDisk. Moore chỉ ra rằng TurboQuant nén chỉ là một loại bộ nhớ đệm cụ thể là KV Cache, chứ không phải toàn bộ việc sử dụng bộ nhớ, và ông định tính điều đó là “cải thiện năng suất mang tính bình thường trong sản xuất”. Nhà phân tích Andrew Rocha của Wells Fargo cũng viện dẫn nghịch lý Jevons rằng khi nâng hiệu suất làm giảm chi phí, điều đó ngược lại có thể kích thích việc triển khai AI quy mô lớn hơn, và cuối cùng kéo nhu cầu bộ nhớ lên.

Bài báo cũ, bao bì mới: rủi ro lan truyền từ nghiên cứu AI sang câu chuyện thị trường

Theo phân tích của blogger kỹ thuật Ben Pouladian, bài báo TurboQuant đã được công bố công khai từ tháng 4 năm 2025, không phải là nghiên cứu mới. Ngày 24 tháng 3, Google thông qua blog chính thức đóng gói lại và đẩy mạnh quảng bá, nhưng thị trường lại định giá nó như một bước đột phá hoàn toàn mới. Chiến lược quảng bá “bài báo cũ, phát hành mới” này, cộng với khả năng có sai lệch thực nghiệm trong bài báo, phản ánh rủi ro mang tính hệ thống trong chuỗi lan truyền từ nghiên cứu AI trong học thuật sang câu chuyện thị trường.

Đối với nhà đầu tư cơ sở hạ tầng AI, khi một bài báo tuyên bố đạt “tăng hiệu năng vài bậc độ lớn”, điều đầu tiên cần đặt câu hỏi là liệu điều kiện của phép so sánh chuẩn có công bằng hay không.

Nhóm của Gao Jianyang đã nêu rõ sẽ tiếp tục thúc đẩy việc giải quyết chính thức vấn đề này. Về phía Google, đến nay vẫn chưa có phản hồi chính thức trước các cáo buộc cụ thể trong bức thư công khai.

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
Thêm một bình luận
Thêm một bình luận
Không có bình luận
  • Gate Fun hot

    Xem thêm
  • Vốn hóa:$2.27KNgười nắm giữ:2
    0.00%
  • Vốn hóa:$2.37KNgười nắm giữ:2
    1.04%
  • Vốn hóa:$2.24KNgười nắm giữ:1
    0.00%
  • Vốn hóa:$2.24KNgười nắm giữ:1
    0.00%
  • Vốn hóa:$2.25KNgười nắm giữ:1
    0.00%
  • Ghim