Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
La nouvelle technologie TurboQuant de Google signifie-t-elle la fin pour Micron ?
Il y a un peu plus d’un an, un fonds spéculatif quantitatif chinois devenu un laboratoire d’IA a publié un modèle d’IA avancé appelé DeepSeek. Même s’il existe un débat sur le niveau de rentabilité exact de l’entraînement de DeepSeek et sur quels processeurs de calcul (chips) il a été entraîné, il ne fait aucun doute que DeepSeek a introduit des innovations novatrices qui ont grandement amélioré l’efficacité de l’entraînement d’un modèle d’IA avec moins de semi-conducteurs, et des semi-conducteurs « moins bons ».
Les actions des semi-conducteurs et de la mémoire ont fortement chuté à l’annonce, en se basant sur l’impression superficielle que les entreprises d’IA n’auraient pas besoin d’acheter autant de puces logiques et de mémoire. Cependant, nous savons maintenant que ces actions se sont ensuite redressées, et même davantage, car la plus grande efficacité n’a pas freiné la demande de puces. Au contraire, les entreprises d’IA ont utilisé ces gains d’efficacité pour investir dans des modèles encore plus avancés, augmentant la demande globale de puissance de calcul et de mémoire.
La semaine dernière, Alphabet (GOOG +5.02%) (GOOGL +5.10%) a publié, via Google Research, TurboQuant, une technologie logicielle de compression de mémoire pour l’IA qui permet une inférence beaucoup plus efficace avec moins de mémoire. En réponse, les principaux acteurs de la mémoire, tels que Micron (MU +4.80%) et ses fournisseurs, ont fortement chuté.
Mais s’agit-il simplement d’un autre moment DeepSeek que les investisseurs devraient acheter ?
Développer
NASDAQ : MU
Micron Technology
Variation du jour
(4.80 %) 15.46 $
Cours actuel
337.26 $
Chiffres clés
Capitalisation boursière
381B $
Fourchette sur la journée
311.50 - 337.70 $
Fourchette sur 52 semaines
61.54 - 471.34 $
Volume
3.1M
Volume moyen
40M
Marge brute
58.54 %
Rendement du dividende
0.18 %
Qu’est-ce que TurboQuant ?
TurboQuant augmente considérablement la capacité et accélère le cache clé-valeur (KV cache) lors de l’inférence de l’IA. Le cache KV est un type de mémoire qui permet à un algorithme d’IA de conserver le contexte précédent sans recalculer tous les tokens antérieurs pour en générer de nouveaux. Le cache KV est, par conséquent, une sorte d’« histoire » de la sortie précédente de l’IA.
Mais si le cache KV est « l’histoire » du contexte passé, TurboQuant est un « résumé » rapide mais précis de cette histoire.
En termes simples, TurboQuant fonctionne comme ceci. Un modèle d’IA comprend le contexte en stockant des données sous forme de vecteurs, ou de graphiques multidimensionnels avec plusieurs « embeddings », c’est-à-dire des points situés dans un axe X-Y-Z. Un token dont le vecteur est similaire à celui d’un autre signifie qu’il entretient une relation similaire.
Pour simplifier, supposons un plan X-Y. Donc un embedding peut être défini par la direction « aller de trois cases vers l’est et de quatre cases vers le nord ».
TurboQuant simplifie ces commandes en disant : « aller de cinq cases à 37 degrés au nord-est ». Cela réduit fortement les calculs nécessaires pour comprendre le contexte, même si cela peut entraîner des erreurs résiduelles. Mais TurboQuant superpose ensuite un mécanisme de correction d’erreurs sur 1 bit qui corrige cela. Même avec le bit supplémentaire, cette technique utilise beaucoup moins de mémoire que la méthode standard des coordonnées XYZ pour les vecteurs d’IA.
Grâce à la correction d’erreurs, Google Research affirme que TurboQuant peut augmenter la capacité du cache KV d’un facteur six, tout en rendant l’inférence de l’IA huit fois plus rapide — sans aucune perte de précision.
TurboQuant booste l’inférence de l’IA. Source de l’image : Getty Images.
Comment TurboQuant affectera la mémoire de l’IA
Si l’inférence de l’IA peut utiliser six fois moins de DRAM et fonctionner huit fois plus vite, l’idée est qu’il pourrait y avoir une demande moindre en mémoire dans les applications d’inférence futures.
Cela semble quelque peu simpliste, même s’il existe un scénario de baisse plausible. Un risque est que la part de marché de l’inférence de l’IA se déplace des GPU coûteux avec une mémoire à large bande passante (HBM) vers des CPU fonctionnant sur une mémoire de serveur « traditionnelle », comme la DDR5 ou la MRDIMM.
La HBM est beaucoup plus rapide que ces anciens types de mémoire, mais elle peut contenir moins de contexte et elle est beaucoup plus coûteuse. En raison de l’augmentation d’un facteur huit de la vitesse du cache KV par TurboQuant, une entreprise qui voudrait désormais utiliser plusieurs agents d’IA inférant sur une grande quantité de données, comme un document juridique de 1 000 pages, pourrait déployer la DDR5 ou la MR-DIMM de manière plus efficace. Même si la HBM sera elle aussi boostée par TurboQuant, les formes plus anciennes de mémoire utilisées par les CPU pourraient être « suffisamment rapides » pour les grandes entreprises qui cherchent à réduire les coûts.
La HBM a été l’un des principaux facteurs de la pénurie de mémoire actuelle, car il faut trois à quatre fois l’équipement pour produire un bit de HBM par rapport à la « mémoire traditionnelle ». Il est donc possible que, si la demande se déplace vers une mémoire plus traditionnelle pour l’inférence, le marché de la mémoire ne soit pas aussi contraint en approvisionnement.
Mais l’histoire haussière est plus probablement
Bien que TurboQuant présente un risque potentiel pour le marché de la HBM, qui absorbe la majeure partie de l’offre de l’industrie, cet investisseur pense malgré tout qu’un scénario haussier est plus probable.
D’abord, la HBM bénéficiera aussi d’améliorations grâce à TurboQuant, car cela permettra aux systèmes d’inférence basés sur la HBM d’avoir des fenêtres de contexte plus larges. Ainsi, l’inférence ne basculera pas entièrement vers des CPU ou de la mémoire traditionnelle. Pour les applications qui exigent une latence ultra-rapide, la HBM sera encore probablement déployée dans une certaine mesure.
De plus, la HBM reste le principal type de mémoire pour l’entraînement des modèles d’IA, et TurboQuant n’affecte pas cela. Même si l’inférence sera un marché plus important à l’avenir, la demande en HBM pour l’entraînement devrait continuer d’augmenter. Étant donné que nous sommes actuellement très en sous-offre en HBM, et que TurboQuant n’a même pas encore été mis en œuvre en dehors du laboratoire de Google, les entreprises de mémoire auront le temps d’ajuster leur croissance d’approvisionnement en conséquence.
Mais des ajustements de l’offre ne seront peut-être même pas nécessaires, car le paradoxe de Jevons pourrait s’appliquer à TurboQuant tout comme il s’est appliqué à DeepSeek. Le paradoxe de Jevons affirme que lorsqu’un processus devient plus efficace, plutôt que d’utiliser moins de ses intrants, la demande augmente en réalité pour ces ressources, car une plus grande efficacité débloque l’adoption et de nouveaux cas d’usage.
Étant donné que la plupart des grandes entreprises technologiques pensent que nous sommes encore au début de l’ère de l’IA, si TurboQuant accélère le rythme auquel les entreprises et les consommateurs intègrent l’IA dans leurs activités, cette hausse de la demande devrait soulever tous les bateaux.
En résumé, cette chute des valeurs de la mémoire pourrait être une opportunité. Alors que Micron et les valeurs liées aux équipements de semi-conducteurs sont encore en forte hausse sur l’année écoulée, ce « signal de panique » pourrait être une occasion d’ajouter ou d’acheter une position initiale, si vous avez raté la hausse de l’année passée.