Google AI, qui a fait s'effondrer les actions de stockage de 90 milliards de dollars à cause de son article sur l'IA, est accusé de falsification d'expériences

Auteur du texte original : Deep Tide TechFlow

Un article publié par Google, qui prétend « comprimer l’utilisation mémoire de l’IA jusqu’à 1/6 », a, la semaine dernière, provoqué l’évaporation de plus de 90 milliards de dollars de capitalisation boursière pour des acteurs mondiaux des puces de stockage comme Micron et SanDisk.

Cependant, seulement deux jours après la publication du papier, le camp que l’algorithme prétend « écraser »— le postdoctorant Gao Jianyang de l’EPF Zurich — a publié une lettre ouverte de plusieurs milliers de caractères, accusant l’équipe de Google d’avoir testé son adversaire avec un script Python sur CPU monocœur, tout en testant sa propre méthode avec un GPU A100, et d’avoir refusé de corriger le tir même après avoir été informée des problèmes avant la soumission. Le volume de lecture sur Zhihu a rapidement dépassé les 4 millions, le compte officiel Stanford NLP a relayé la publication, et le monde académique comme le marché ont été secoués en même temps.

Le cœur de la controverse n’est pas complexe : un article de sommet (conférence) en IA, massivement promu par Google lui-même et ayant déclenché une vague de ventes paniques au niveau mondial dans le secteur des puces, a-t-il systématiquement déformé un travail antérieur déjà publié, en façonnant un récit de supériorité de performance fictive au moyen d’expériences volontairement injustes ?

Que fait TurboQuant : compresser « le papier brouillon » de l’IA jusqu’à un sixième

Lorsqu’un grand modèle de langage génère une réponse, il doit, à la fois, écrire et revenir vérifier le contenu calculé précédemment. Ces résultats intermédiaires sont stockés temporairement dans la mémoire vidéo ; dans l’industrie, on les appelle « KV Cache » (cache clé-valeur). Plus la conversation est longue, plus ce « papier brouillon » devient épais, plus la consommation de mémoire vidéo augmente et plus les coûts deviennent élevés.

L’algorithme TurboQuant développé par l’équipe de recherche de Google a pour argument principal de comprimer ce papier brouillon à 1/6 de sa taille d’origine, tout en affirmant une perte de précision nulle et une amélioration de la vitesse d’inférence allant jusqu’à 8 fois. L’article a été publié pour la première fois en avril 2025 sur la plateforme de prépublications arXiv ; en janvier 2026, il a été accepté par la conférence de tout premier plan du domaine IA, ICLR 2026 ; le 24 mars, il a été reconditionné et republié sous forme de promotion sur le blog officiel de Google.

Sur le plan technique, l’idée de TurboQuant peut se comprendre simplement comme suit : d’abord, à l’aide d’une transformation mathématique, « laver » des données désordonnées en un format unifié ; ensuite, comprimer chaque élément grâce à une table de compression optimale pré-calculée ; enfin, corriger les écarts de calcul introduits par la compression avec un mécanisme de correction d’erreurs de 1 bit. Des implémentations indépendantes de la communauté ont vérifié que l’effet de compression est essentiellement conforme à la réalité ; la contribution mathématique au niveau de l’algorithme est bel et bien réelle.

La controverse ne porte pas sur la question de savoir si TurboQuant peut être utilisé, mais sur ce que Google a fait pour prouver qu’il est « bien au-delà des concurrents ».

Lettre ouverte de Gao Jianyang : trois accusations, chacune frappe juste

À 22 h le 27 mars, Gao Jianyang a publié un long texte sur Zhihu, et a simultanément soumis des commentaires officiels sur la plateforme d’évaluation ICLR, OpenReview. Gao Jianyang est le premier auteur de l’algorithme RaBitQ ; cet algorithme a été publié en 2024 dans la conférence de tout premier plan du domaine des bases de données SIGMOD, et traite un problème de même type : une compression efficace de vecteurs de grande dimension.

Ses accusations se répartissent en trois points, et chacune est étayée par des enregistrements d’e-mails et une chronologie.

Accusation 1 : utiliser la méthode centrale de quelqu’un d’autre, sans jamais l’évoquer dans tout le texte.

Le cœur technique commun entre TurboQuant et RaBitQ comporte une étape clé : avant de comprimer les données, on effectue d’abord une « rotation aléatoire » sur les données. Cette étape sert à transformer des données initialement irrégulières en une distribution uniforme prédictible, réduisant ainsi fortement la difficulté de la compression. C’est la partie la plus fondamentale et la plus proche entre les deux algorithmes.

Dans sa réponse aux reviewers, l’auteur de TurboQuant reconnaît lui-même ce point, mais dans le corps intégral de l’article, il n’explique jamais de manière frontale le lien entre cette méthode et RaBitQ. Plus important encore : le deuxième auteur de TurboQuant, Majid Daliri, a en janvier 2025 contacté de son propre chef l’équipe de Gao Jianyang pour demander de l’aide afin de déboguer sa version Python, réécrite à partir du code source de RaBitQ. L’e-mail décrit en détail les étapes de reproduction et les messages d’erreur — autrement dit, l’équipe de TurboQuant connaît très bien les détails techniques de RaBitQ.

Un reviewer anonyme d’ICLR a également signalé indépendamment que les deux méthodes utilisaient la même technique, et a demandé une discussion approfondie. Mais dans la version finale de l’article, l’équipe TurboQuant n’a non seulement pas complété cette discussion ; au contraire, la description initiale (déjà incomplète) de RaBitQ dans le corps du texte a été déplacée vers l’annexe.

Accusation 2 : prétendre, sans preuves, que la théorie de l’autre serait « sous-optimale ».

L’article TurboQuant appose directement à RaBitQ une étiquette de « sous-optimalité théorique » (suboptimal), au motif que l’analyse mathématique de RaBitQ « est assez grossière ». Mais Gao Jianyang indique que la version étendue de l’article RaBitQ a déjà démontré rigoureusement que l’erreur de compression atteint la borne mathématiquement optimale — une conclusion publiée dans une conférence de tout premier plan en informatique théorique.

En mai 2025, l’équipe de Gao Jianyang a expliqué en détail, à travers plusieurs séries d’e-mails, l’optimalité théorique de RaBitQ. Le deuxième auteur de TurboQuant, Daliri, a confirmé avoir informé tous les auteurs. Pourtant, dans l’article final, l’expression « sous-optimale » est maintenue, sans fournir aucun argument de réfutation.

Accusation 3 : dans les comparaisons expérimentales, « attacher la main gauche et tenir le sabre à droite ».

C’est de loin la plus assassine des trois accusations dans l’ensemble du texte. Gao Jianyang souligne que, dans l’expérience de comparaison de vitesse, l’article TurboQuant superpose deux conditions d’iniquité :

D’abord, RaBitQ fournit un code C++ optimisé (par défaut, prise en charge du parallélisme multi-thread), mais l’équipe TurboQuant ne l’a pas utilisé : elle a testé RaBitQ avec sa propre version Python traduite. Ensuite, lors des tests de RaBitQ, il s’agissait d’un CPU monocœur avec le multi-thread désactivé, tandis que TurboQuant utilisait un GPU NVIDIA A100.

L’effet combiné de ces deux conditions est le suivant : les lecteurs voient la conclusion que « RaBitQ est plus lente de plusieurs ordres de grandeur que TurboQuant », sans jamais savoir que ce constat repose sur le fait que l’équipe de Google a d’abord entravé l’adversaire avant de lancer la course. L’article n’expose pas de manière suffisante les différences de ces conditions expérimentales.

La réponse de Google : « la rotation aléatoire est une technique générale, on ne peut pas citer à chaque fois »

Selon ce que Gao Jianyang a divulgué, dans sa réponse par e-mail de mars 2026, l’équipe TurboQuant déclare : « L’utilisation de la rotation aléatoire et de la transformation de Johnson-Lindenstrauss est une technique standard dans ce domaine ; nous ne pouvons pas citer chaque article qui utilise ces méthodes. »

L’équipe de Gao Jianyang estime qu’il s’agit d’un glissement conceptuel : il ne s’agit pas de savoir s’il faut citer tous les articles ayant utilisé la rotation aléatoire, mais du fait que RaBitQ est le travail ayant, le premier, combiné cette méthode avec la compression de vecteurs dans un cadre de problème entièrement identique, tout en en prouvant l’optimalité. L’article TurboQuant devrait donc décrire avec exactitude la relation entre les deux.

Le compte officiel X de Stanford NLP Group a relayé la déclaration de Gao Jianyang. L’équipe de Gao Jianyang a publié un commentaire public sur la plateforme ICLR OpenReview, et a déposé une plainte formelle auprès du président de la conférence ICLR ainsi que du comité d’éthique ; par la suite, elle publiera aussi un rapport technique détaillé sur arXiv.

Le blogueur technique indépendant Dario Salvati a donné une évaluation relativement neutre dans son analyse : TurboQuant apporte effectivement une contribution réelle sur le plan des méthodes mathématiques, mais sa relation avec RaBitQ est bien plus étroite que ce que l’article laisse entendre.

Évaporation de 9 milliards de dollars de capitalisation : controverse académique + panique du marché

Le moment où cette controverse académique se produit est extrêmement délicat. Après que Google a publié TurboQuant via son blog officiel le 24 mars, le secteur mondial des puces de stockage a subi une violente vague de ventes. D’après plusieurs médias, dont CNBC, Micron a chuté pendant six séances consécutives, avec une baisse cumulée de plus de 20 % ; SanDisk a chuté de 11 % en une seule journée ; SK Hynix en Corée a baissé d’environ 6 %, Samsung Electronics d’environ 5 %, et Kioxia au Japon d’environ 6 %. La logique de panique du marché est simple et brutale : la compression logicielle peut réduire de 6 fois les besoins en mémoire d’inférence de l’IA ; les perspectives de demande des puces de stockage seraient donc abaissées structurellement.

L’analyste Joseph Moore de Morgan Stanley, dans une note de recherche du 26 mars, a réfuté cette logique en maintenant la recommandation « surpondérer » pour Micron et SanDisk. Moore souligne que TurboQuant ne compresse que le KV Cache — un type spécifique de cache — et non l’utilisation globale de la mémoire ; et il qualifie cela d’« amélioration de productivité normale » en production. L’analyste Andrew Rocha de la Bank of America cite également le paradoxe de Jevons : une amélioration de l’efficacité réduisant les coûts peut au contraire stimuler un déploiement encore plus important de l’IA, ce qui, au final, augmente la demande en mémoire.

Vieux article, nouvelle emballage : risque de chaîne de transmission entre la recherche IA et le récit du marché

D’après l’analyse du blogueur technique Ben Pouladian, l’article TurboQuant avait déjà été rendu public dès avril 2025, et ne correspond donc pas à une recherche nouvelle. Le 24 mars, Google l’a reconditionné et promu via son blog officiel ; pourtant, le marché l’a tarifé comme une percée entièrement nouvelle. Cette stratégie de promotion de « vieux article, nouvelle publication », combinée à d’éventuels biais expérimentaux dans l’article, reflète un risque systémique dans la chaîne de transmission qui fait passer la recherche en IA des articles académiques aux récits du marché.

Pour les investisseurs dans l’infrastructure d’IA, lorsqu’un papier affirme réaliser des améliorations de « plusieurs ordres de grandeur » de performance, la première question à poser est si les conditions de référence de la comparaison sont équitables.

L’équipe de Gao Jianyang a clairement indiqué qu’elle continuerait à pousser vers une résolution officielle du problème. De la part de Google, aucune réponse officielle aux accusations spécifiques de la lettre ouverte n’a encore été publiée.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler