Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Google AI, qui a fait s'effondrer les actions de stockage de 90 milliards de dollars à cause de son article sur l'IA, est accusé de falsification d'expériences
Auteur de l’article original : DeepChao TechFlow
Un article de Google, qui prétend « compresser l’empreinte mémoire de l’IA jusqu’à 1/6 », a suscité la semaine dernière une évaporation de plus de 90 milliards de dollars de capitalisation boursière pour les sociétés mondiales de puces de stockage, comme Micron et SanDisk.
Cependant, seulement deux jours après la publication de l’article, l’une des parties que l’algorithme prétend « écraser » — Jianna Gao, postdoctorante à l’EPF Zurich — a publié une lettre ouverte de plus de mille mots, accusant l’équipe de Google d’avoir testé ses adversaires avec un script Python utilisant un CPU monocœur, et d’avoir testé elle-même avec un GPU A100, et d’avoir refusé de corriger le problème même après en avoir été informée avant la soumission. En quelques instants, la lecture sur Zhihu a dépassé 4 millions ; le compte officiel Stanford NLP l’a relayée ; et la communauté académique comme le marché ont été secoués en même temps.
Le cœur de la controverse n’est pas complexe : un article de « sommet » (conférence de premier plan) sur l’IA, largement promu par Google lui-même, et ayant directement déclenché une vague de ventes paniques dans le secteur mondial des puces, déforme-t-il systématiquement un travail antérieur déjà publié, et façonne-t-il un récit de supériorité de performance fictif par le biais d’expériences délibérément injustes ?
TurboQuant : réduire le « papier brouillon » de l’IA à un sixième
Lors de la génération de réponses, les grands modèles de langage doivent écrire tout en revenant en arrière pour consulter du contenu déjà calculé. Ces résultats intermédiaires sont stockés temporairement dans la mémoire vidéo ; dans l’industrie, on les appelle « KV Cache » (cache clé-valeur). Plus la conversation est longue, plus ce « papier brouillon » est épais, plus la consommation de mémoire vidéo augmente, et plus les coûts sont élevés.
L’algorithme TurboQuant développé par l’équipe de recherche de Google a pour argument central précisément de compresser ce papier brouillon jusqu’à 1/6 de sa taille d’origine, tout en affirmant une perte de précision nulle et une amélioration de la vitesse d’inférence allant jusqu’à 8 fois. L’article a été publié pour la première fois le 2025 avril 2025 sur la plateforme de prépublication arXiv ; en janvier 2026, il a été accepté par la conférence de tout premier plan du domaine de l’IA ICLR 2026 ; le 24 mars, il a été reconditionné et promu à nouveau par le blog officiel de Google.
Sur le plan technique, l’idée de TurboQuant peut se comprendre simplement ainsi : d’abord, utiliser une transformation mathématique pour « laver » des données éparses en un format unifié ; ensuite, compresser pièce par pièce avec une table de compression optimale calculée à l’avance ; enfin, corriger les écarts de calcul introduits par la compression à l’aide d’un mécanisme de correction d’erreurs de 1 bit. Des implémentations indépendantes menées par la communauté ont vérifié que l’efficacité de la compression est globalement conforme à la réalité, et la contribution mathématique au niveau des algorithmes existe bel et bien.
La controverse ne porte pas sur la question de savoir si TurboQuant peut être utilisé, mais sur ce que Google a fait pour prouver qu’il « dépasse largement les concurrents ».
Lettre ouverte de Jianna Gao : trois accusations, chacune vise juste
Le 27 mars, à 22 h, Jianna Gao a publié un long texte sur Zhihu, et l’a également soumis en commentaires officiels sur la plateforme d’évaluation ICLR, OpenReview. Jianna Gao est le premier auteur de l’algorithme RaBitQ ; cet algorithme a été publié en 2024 dans la conférence de tout premier plan SIGMOD du domaine des bases de données, et il traite d’un problème de même catégorie : la compression efficace de vecteurs de grande dimension.
Ses accusations se répartissent en trois points, et chaque point est étayé par des journaux d’e-mails et une chronologie.
Accusation 1 : utiliser la méthode clé de quelqu’un d’autre, sans jamais la mentionner dans tout le texte.
Le cœur technique commun entre TurboQuant et RaBitQ comporte une étape cruciale : avant de compresser les données, effectuer d’abord une « rotation aléatoire » des données. Cette opération a pour effet de transformer des données initialement irrégulières en une distribution uniforme et prévisible, réduisant ainsi considérablement la difficulté de la compression. C’est la partie la plus centrale et la plus proche des deux algorithmes.
Même les auteurs de TurboQuant ont reconnu cela dans leur réponse aux reviewers, mais dans le texte intégral de leur article, ils n’ont jamais expliqué clairement la relation de cette méthode avec RaBitQ. Plus important encore, le contexte suivant : le deuxième auteur de TurboQuant, Majid Daliri, a contacté activement l’équipe de Jianna Gao en janvier 2025, en demandant de l’aide pour déboguer sa version Python modifiée à partir du code source de RaBitQ. Dans les e-mails, il décrit en détail les étapes de reproduction ainsi que les informations d’erreur — autrement dit, l’équipe TurboQuant connaissait très précisément les détails techniques de RaBitQ.
Un reviewer anonyme d’ICLR a également signalé indépendamment que les deux utilisent une technologie identique, et a demandé une discussion approfondie. Mais dans la version finale de l’article, l’équipe TurboQuant n’a non seulement pas ajouté de discussion, elle a au contraire déplacé la description initialement présente dans le corps principal de l’article à propos de RaBitQ (déjà incomplète) vers l’annexe.
Accusation 2 : qualifier la théorie de l’autre de « sous-optimale » sans aucune preuve.
L’article TurboQuant appose directement à RaBitQ une étiquette de « sous-optimale sur le plan théorique » (suboptimal), au motif que l’analyse mathématique de RaBitQ « est relativement grossière ». Mais Jianna Gao indique que l’article version étendue de RaBitQ a déjà prouvé rigoureusement que son erreur de compression atteint la borne optimale mathématique — une conclusion publiée dans une conférence de tout premier plan en informatique théorique.
En mai 2025, l’équipe de Jianna Gao a, via plusieurs séries d’e-mails, expliqué en détail l’optimalité théorique de RaBitQ. Le deuxième auteur de TurboQuant, Daliri, a confirmé avoir informé l’ensemble des auteurs. Pourtant, dans la version finale, l’article conserve l’expression « sous-optimale », sans fournir aucun argument de réfutation.
Accusation 3 : dans les comparaisons expérimentales, « attacher la main gauche et tenir le couteau dans la main droite ».
C’est le point le plus dévastateur de tout le texte. Jianna Gao indique que dans l’expérience de comparaison de vitesse, l’article TurboQuant superpose deux conditions d’iniquité :
D’abord, RaBitQ fournit un code C++ optimisé (par défaut, supporte le parallélisme multi-thread), mais l’équipe TurboQuant ne l’a pas utilisé ; elle a testé RaBitQ avec sa propre version traduite en Python. Ensuite, lors des tests de RaBitQ, ils utilisent un CPU monocœur et désactivent le multi-thread, tandis que TurboQuant utilise un GPU NVIDIA A100.
L’effet cumulé de ces deux conditions est que les lecteurs voient la conclusion selon laquelle « RaBitQ est plus lent que TurboQuant de plusieurs ordres de grandeur », mais ignorent que cette conclusion repose sur le fait que l’équipe de Google ait « attaché les mains » de l’adversaire avant de courir la compétition. L’article ne révèle pas suffisamment les différences entre ces conditions expérimentales.
Réponse de Google : « la rotation aléatoire est une technique générale, on ne peut pas citer chaque article »
D’après les divulgations de Jianna Gao, l’équipe TurboQuant, dans sa réponse par e-mail de mars 2026, a indiqué : « L’usage de la rotation aléatoire et de la transformation de Johnson-Lindenstrauss est une technique standard dans ce domaine ; nous ne pouvons pas citer chaque article qui utilise ces méthodes. »
L’équipe de Jianna Gao estime qu’il s’agit d’un glissement sémantique : le problème n’est pas de savoir s’il faut citer tous les articles qui utilisent la rotation aléatoire, mais que RaBitQ est le travail qui, dans exactement le même cadre de problème, a d’abord combiné cette méthode avec la compression de vecteurs et en a prouvé l’optimalité ; l’article TurboQuant devrait donc décrire avec précision la relation entre les deux.
Le compte officiel X du Stanford NLP Group a relayé la déclaration de Jianna Gao. L’équipe de Jianna Gao a publié des commentaires publics sur la plateforme ICLR OpenReview, et a déposé une plainte officielle auprès du président de la conférence ICLR et du comité d’éthique ; par la suite, elle publiera également un rapport technique détaillé sur arXiv.
Dans son analyse, le blogueur technique indépendant Dario Salvati a donné une évaluation relativement neutre : TurboQuant apporte en effet une contribution réelle du point de vue mathématique, mais la relation avec RaBitQ est bien plus étroite que ce que laisse entendre la formulation de l’article.
L’évaporation de 90 milliards de dollars de capitalisation : la controverse sur l’article amplifie la panique du marché
Le calendrier de cette controverse académique est extrêmement délicat. Après la publication de TurboQuant par le blog officiel le 24 mars, le secteur mondial des puces de stockage a subi une vente massive. Selon plusieurs médias dont CNBC, Micron Technology a chuté pendant six séances consécutives, avec une baisse cumulée dépassant 20 % ; SanDisk a perdu 11 % sur une seule journée ; la coréenne SK Hynix a reculé d’environ 6 % ; Samsung Electronics a chuté de près de 5 % ; et au Japon, Kioxia a baissé d’environ 6 %. La logique de la panique du marché est simple et brutale : la compression logicielle peut réduire de 6 fois les besoins en mémoire d’inférence de l’IA ; l’horizon des besoins des puces de stockage devrait donc être abaissé structurellement.
L’analyste de Morgan Stanley, Joseph Moore, a réfuté cette logique dans un rapport de recherche du 26 mars, en maintenant la recommandation « renforcer » pour Micron et SanDisk. Moore indique que la compression de TurboQuant ne concerne qu’un type particulier de cache, le KV Cache, et non l’utilisation globale de la mémoire ; il qualifie cela d’« amélioration de productivité normale ». L’analyste de la banque d’investissement, Andrew Rocha de Wells Fargo, invoque également le paradoxe de Jevons : après la baisse des coûts due aux gains d’efficacité, cela pourrait au contraire stimuler un déploiement d’IA à plus grande échelle, ce qui, au final, augmenterait les besoins en mémoire.
Ancien article, nouvel emballage : risque de transmission entre recherche sur l’IA et récit de marché
D’après l’analyse du blogueur technique Ben Pouladian, l’article TurboQuant avait déjà été publié au public en avril 2025, et ce n’est donc pas une recherche nouvelle. Le 24 mars, Google a reconditionné et promu l’article via son blog officiel, mais le marché l’a évalué comme s’il s’agissait d’une percée totalement nouvelle. Cette stratégie de promotion « ancien article, nouvelle publication », combinée à d’éventuels biais expérimentaux dans l’article, reflète un risque systémique dans la chaîne de transmission de la recherche sur l’IA — des articles académiques jusqu’au récit du marché.
Pour les investisseurs en infrastructure d’IA, lorsqu’un article affirme réaliser une amélioration de « plusieurs ordres de grandeur », la première question à se poser est de savoir si les conditions de référence (benchmark) sont équitables.
L’équipe de Jianna Gao a clairement indiqué qu’elle continuera à pousser à une résolution formelle de la question. De son côté, Google n’a pas encore fait de réponse officielle aux accusations spécifiques de la lettre ouverte.